你的声音被谁“偷”走了
——AI声音滥用现象调查
你的声音被谁“偷”走了
——AI声音滥用现象调查
亲耳听到的就是真的吗?未必。网络平台上,AI声音随处可见。记者调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出来。与此同时,AI声音滥用现象愈发突出,不时引发争议。
AI声音滥用不时发生
记者在某短视频平台以“AI克隆声音”为关键词检索发现,明星翻唱、新闻播报、吐槽点评等大量视频涉及AI声音,有些甚至出现不雅词汇,不少视频点赞和评论量过千。
而AI声音滥用事件也不时发生,引发关注和讨论。
一些商家在短视频平台带货时,通过AI模仿声音技术将主播“变”为知名女明星、知名医生,销售服装、保健品等相关产品,对消费者造成了严重误导。国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏接受媒体采访时表示,通过语音合成来模仿他的声音进行直播带货,这样的账号“不止一个,且一直在变”,他多次向平台投诉但屡禁不绝。
中国社会科学院大学互联网法治研究中心主任刘晓春表示,在未经过授权、未进行标注的情况下,用他人声音制作AI语音产品,尤其是“借用”公众人物的声音,很容易引起误解,不仅会侵害个人信息安全,还可能扰乱网络空间生态和秩序。
声音是如何被“偷”走的?
AI如何生成以假乱真的声音?受访专家介绍,AI能够“克隆”声音,主要是依靠深度学习算法,即短时间内从采集的声音样本中提取关键特征,包括频率、音色、声调、语速、情感等,将这些特征记录为数学模型,再通过算法合成。
记者联系了一款App的客服人员,对方表示,花198元就能解锁付费会员,对着镜头说几遍“12345”,AI就会根据声音生成各类内容的出镜口播视频。记者操作后发现,通过这款软件生成的名人声音,基本可以以假乱真,且录入名人声音不需要提供任何授权证明。
业内人士告诉记者,AI模拟人声在互联网“流行”,有追逐流量和变现的目的。通过“克隆”名人声音制作的恶搞、猎奇类视频,在相关平台播放和点赞量均不低,有的甚至还被推上热搜。发布者也相应获得流量曝光、粉丝增长、广告收入等播放收益。
此外,“偷”人声音也有不法利益驱动。国家金融监管总局2024年7月发布的《关于防范新型电信网络诈骗的风险提示》中提到,不法分子可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
多措并举强化治理
用AI生成他人声音,是否违法违规?多位受访专家表示,个人声音中包含的声纹信息具备可识别性,能以电子方式记录,能关联到唯一自然人,是生物识别信息,属于个人信息保护法规定的敏感个人信息之一。
2024年4月,北京互联网法院宣判全国首例“AI声音侵权案”,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。该法院法官认为,未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成侵权。
近年来,有关主管部门出台《人工智能生成合成内容标识办法(征求意见稿)》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等规定,一定程度上给AI技术使用划定了红线。
清华大学新闻与传播学院教授沈阳等专家认为,关于人工智能应用产生的造谣侵权、刑事犯罪、道德伦理等问题,建议有关部门细化完善相关规则,通过典型案例、司法解释等方式给予更为明确的规范指引,厘清法律法规边界。
中国科学院科技战略咨询研究院院长潘教峰认为,需进一步强化人工智能伦理规制,超前部署人工智能风险研究,提前预判人工智能技术应用可能带来的社会影响。
2024年12月,广电总局网络视听司发布《管理提示(AI魔改)》,要求严格落实生成式人工智能内容审核要求,对在平台上使用、传播的各类相关技术产品严格准入和监看,对AI生成内容做出显著提示。
据新华社电
山西日报、山西晚报、山西农民报、山西经济日报、山西法制报、山西市场导报所有自采新闻(含图片)独家授权山西新闻网发布,未经允许不得转载或镜像;授权转载务必注明来源,例:"山西新闻网-山西日报 "。
凡本网未注明"来源:山西新闻网(或山西新闻网——XXX报)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。