被AI“偷”走的声音
被AI“偷”走的声音
“妈,这个月的生活费又快没了,再给我转5000元吧!”12月8日,省城市民王莉霞向记者讲述了前些天她所遭遇的骗局。12月2日中午,王女士接到一通陌生电话,电话中,“女儿”抱怨生活费花完了,央求自己“尽快打钱”。“我当时下意识觉得这是诈骗电话,但因为对方的声音和女儿简直一模一样,我还是不免有些疑惑。”随即,她打电话向女儿求证,确定刚才那通足以以假乱真的电话是骗子的新伎俩。“太可怕了,现在的高科技骗术层层升级,不敢设想,如果是防范意识较弱的老年人接到电话又会有怎样的反应?”
无限接近的声音模拟、高度逼真的精准克隆,AI拟声技术,这一原本旨在增强沟通体验的高科技产物,却被不法分子扭曲为诈骗的利刃,悄无声息地在数字世界中布下了陷阱。
针对这种新型电信网络诈骗,金融监管总局此前发布提示,不法分子以“网店客服”“营销推广”“招聘兼职”等为借口,通过微信、电话等方式采集消费者的发音、语句或面部信息。利用“换脸”“拟声”等技术合成虚假音频、视频或图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。
记者在某视频网站中输入关键词“AI拟声”,立即出现大量的相关教学视频,博主们以“零基础教程”“免费开源”“一分钟学会”为噱头,赚足了关注和流量。“为大家推荐一款免费的AI软件,只需10秒声音样本,便可以克隆任何人的声音,在你所构建的声音模型中输入配音文案,就可以生成配音文件。”该博主告诉记者,AI拟声没有任何技术门槛,普通人都能轻松掌握,尤其对于视频创作者来说已属常规操作。
工信部信息通信经济专家委员会委员刘兴亮指出:“AI拟声技术的发展,使得诈骗者能够以前所未有的逼真度模拟人声,甚至能捕捉到微妙的语调变化,这对于缺乏专业知识的普通人而言,几乎是无法分辨的。”他强调,这种技术的滥用,无疑为诈骗行为提供了更为隐蔽的掩护。
“其实,AI拟声也是繁荣文化创作、娱乐大众生活的重要工具。在短视频平台上,应用该技术制作的短视频颇受广大用户的青睐,别具个性的语调、轻松幽默的风格,或反差,或搞笑,频频登上热门视频榜,为大众构拟新型听觉场景。比如,大家耳熟能详的四郎、容嬷嬷、孙悟空等,这些标志性声音符号已成为各UP主争相使用的爆款。”山西传媒学院副教授周怡帆认为,关键是要通过制度和法律的约束,让新兴技术在法治框架内健康有序地发展。
山西云冈律师事务所主任刘琨指出,利用AI拟声技术进行诈骗的行为,本质上是通过虚构事实和隐瞒真相的手段,骗取他人财物,符合《中华人民共和国刑法》第二百六十六条关于诈骗罪的定义,因此,这种行为构成诈骗罪。此外,伪造他人声音进行诈骗,可能涉及侵犯个人信息保护权。实践中,擅自使用他人信息制作拟声视频还可能同时构成侵犯公民个人信息罪。他提示,在享受科技便利的同时,公众需增强反诈意识,避免在互联网过多暴露个人图像、声音等信息,并对社交账户的安全状况保持警惕。一旦遭遇可疑情形,应保存证据并及时报警,尤其在涉及金钱、财产等重要事项时,需谨慎对待,多渠道核实对方身份,避免上当受骗。
本报记者郭慧
山西日报、山西晚报、山西农民报、山西经济日报、山西法制报、山西市场导报所有自采新闻(含图片)独家授权山西新闻网发布,未经允许不得转载或镜像;授权转载务必注明来源,例:"山西新闻网-山西日报 "。
凡本网未注明"来源:山西新闻网(或山西新闻网——XXX报)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。