警惕“AI换脸拟声”骗局
警惕“AI换脸拟声”骗局
“爸爸,刚开学我的手机就丢了,快给我转1万元买新手机。”一位父亲正和女儿视频聊天,听到在外地上学的女儿说“手机丢了需要买新的”,他立刻想给孩子转账。就在这时,家门打开了,他的“真女儿”拉着行李箱走了进来,而另一头,视频里的“假女儿”还在央求爸爸“给钱”。8月26日,这条名为“眼见不一定为实,别让AI迷了眼”的“AI反诈教学视频”登上热榜。“骗子来电,声音容貌和我家人一模一样,防不胜防。”评论区中,许多网友说自己也有过类似被骗的经历。
8月27日,太原网友“晴天”也遭遇了类似诈骗,她收到了“老师”发来的视频和链接短信,内容是:“家长您好,我是您孩子的英语老师,烦请点击我发送的网址,查看下学期开学需打印的资料。”观看完视频以后,她点击链接,手机上弹出来一个“共享屏幕”的邀请。“我不会操作,所以给老师打电话咨询,谁知道老师压根儿不知道这回事!”“晴天”一头雾水,视频里明明就是老师本人的脸和声音,没想到竟是“AI换脸拟声”骗局。
“如今,AI换脸已经不再是科幻电影的情节,一张‘肖像照片’、一段‘貌似熟人的视频’,都可能被不法分子利用作为诈骗的手段和工具。”人工智能算法工程师吴昊介绍,AI诈骗是指利用人工智能(AI)技术,冒充他人的身份或声音,通过视频或语音的方式,骗取目标人群财物。他直言:“不法分子可利用此类技术轻易伪装成他人,并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗。”
那么,如何防范“AI换脸拟声”诈骗?吴昊介绍,当遇到“熟悉的陌生人”的可疑视频通话时,可以试试要求对方做一些侧脸转向、面部遮挡、捏鼻子等动作,来辨识是否利用AI换脸的可能性。鉴于AI换脸技术的快速发展,吴昊认为,提高警惕是目前相对有效的方法。
“深度合成技术内容制作门槛越来越低,普通人仅需要少量的图像、音频、视频、文本等样本数据,利用简便易用的深度合成工具,就能做到AI换脸拟声。”吴昊直言,每个人都需提高安全意识,谨慎分享,不轻易提供人脸、指纹等个人生物信息给他人。
记者注意到,正值开学季,全国各地的网警、反诈中心等官方账号纷纷发力,通过形式多样的文图、短视频进行反诈知识普及,其中,“AI换脸拟声”骗局的揭露引发了网友热议。8月26日以来,山西网警、太原网警等官方账号发布了“这份《开学季防骗指南》请收好”“打开网警‘开学礼’谨防骗子‘冲业绩’”等内容,并发出提醒:网络渠道“眼见”不一定为实。
山西省处置非法集资领导组办公室也发布了防范新型电信网络诈骗风险提示,对“AI换脸拟声”类诈骗进行重点介绍。提醒网友如果面对自称“熟人”“领导”“老师”等通过社交软件、电话诱导汇款,务必核验对方身份,可利用其他通信方式或见面核实,在无法确认对方身份时,应尽量避免转账操作。同时,尽量避免在互联网过多暴露个人照片、声音、视频等信息。如不慎被骗或遇可疑情形,应注意保存证据并立即向当地公安机关报案。
本报记者崔玲玲
山西日报、山西晚报、山西农民报、山西经济日报、山西法制报、山西市场导报所有自采新闻(含图片)独家授权山西新闻网发布,未经允许不得转载或镜像;授权转载务必注明来源,例:"山西新闻网-山西日报 "。
凡本网未注明"来源:山西新闻网(或山西新闻网——XXX报)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。