■河南经济报评论员 张百强
亲耳听到的也未必为真。从“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”,到多位配音演员称声音被AI“偷走”,公开维权……日前,有记者调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现。与此同时,AI声音滥用现象愈发突出,不时引发争议。
近年来,随着的人工智能技术的发展,AI也正逐步融入人们的生活与工作之中。特别是对声音的模仿,让AI成为有声读物、智能客服、播音配音等行业的新宠。同时,它也成为某些特殊人群,如语言障碍者的“嘴替”,让其可以用更加丰富的表达形式抒发情感、联系世界。
与新技术相伴而生的,有新机遇,也有新挑战。从两年前的“一眼假”到如今的“真假难辨”,AI依靠深度学习算法,最快只需十几秒就能实现对说话人声音的“克隆”。可在人们感叹科技飞速发展的时候,某些人却“巧”用AI,“偷走”他人的声音为己所用,或为博得关注,晋升“网红”;或实施诈骗,牟取更多利益。这类事件的不断发生,不仅触犯法律法规,侵害被模仿者的权益,扰乱网络空间的生态和秩序,还使人们对人工智能技术产生焦虑与畏惧心理,最终影响人工智能技术的创新、行业的发展。
也正如此,在当下人工智能技术快速发展的关键期,决不能让技术滥用成为阻碍科技进步、行业发展的绊脚石,整治“AI声音滥用”刻不容缓,需多向发力、重拳出击,以雷霆之势铲除乱象、以积极的态度消除不良影响。
相关法律法规、行业准则的制订应紧跟时代的进步、科技的发展、社会的需求。笔者建议,相关部门应坚持前瞻性原则,细化完善相关规则,厘清法律法规边界,并加大对违法犯罪行为的打击力度,为AI行业的发展创造更优环境。各类社交网络、短视频平台要不断创新监管手段、强化主动监管意识,及时发现和拦截侵权、虚假、违法等不良内容,让不法分子无发“声”之地。同时,还要增强全社会的人工智能伦理意识与行为自觉,并加大风险研究力度,提前预判人工智能技术应用可能带来的社会影响,引导人们规避风险,让人工智能技术真正成为人们的“好帮手”。