被AI“偷”走的聲音
被AI“偷”走的聲音
“媽,這個月的生活費又快沒了,再給我轉5000元吧!”12月8日,省城市民王莉霞向記者講述了前些天她所遭遇的騙局。12月2日中午,王女士接到一通陌生電話,電話中,“女兒”抱怨生活費花完了,央求自己“盡快打錢”。“我當時下意識覺得這是詐騙電話,但因為對方的聲音和女兒簡直一模一樣,我還是不免有些疑惑。”隨即,她打電話向女兒求証,確定剛才那通足以以假亂真的電話是騙子的新伎倆。“太可怕了,現在的高科技騙術層層升級,不敢設想,如果是防范意識較弱的老年人接到電話又會有怎樣的反應?”
無限接近的聲音模擬、高度逼真的精准克隆,AI擬聲技術,這一原本旨在增強溝通體驗的高科技產物,卻被不法分子扭曲為詐騙的利刃,悄無聲息地在數字世界中布下了陷阱。
針對這種新型電信網絡詐騙,金融監管總局此前發布提示,不法分子以“網店客服”“營銷推廣”“招聘兼職”等為借口,通過微信、電話等方式採集消費者的發音、語句或面部信息。利用“換臉”“擬聲”等技術合成虛假音頻、視頻或圖像,以借錢、投資、緊急救助等借口誘導其親友轉賬匯款,或提供銀行賬戶密碼等敏感信息,隨后立即轉移資金。
記者在某視頻網站中輸入關鍵詞“AI擬聲”,立即出現大量的相關教學視頻,博主們以“零基礎教程”“免費開源”“一分鐘學會”為噱頭,賺足了關注和流量。“為大家推薦一款免費的AI軟件,隻需10秒聲音樣本,便可以克隆任何人的聲音,在你所構建的聲音模型中輸入配音文案,就可以生成配音文件。”該博主告訴記者,AI擬聲沒有任何技術門檻,普通人都能輕鬆掌握,尤其對於視頻創作者來說已屬常規操作。
工信部信息通信經濟專家委員會委員劉興亮指出:“AI擬聲技術的發展,使得詐騙者能夠以前所未有的逼真度模擬人聲,甚至能捕捉到微妙的語調變化,這對於缺乏專業知識的普通人而言,幾乎是無法分辨的。”他強調,這種技術的濫用,無疑為詐騙行為提供了更為隱蔽的掩護。
“其實,AI擬聲也是繁榮文化創作、娛樂大眾生活的重要工具。在短視頻平台上,應用該技術制作的短視頻頗受廣大用戶的青睞,別具個性的語調、輕鬆幽默的風格,或反差,或搞笑,頻頻登上熱門視頻榜,為大眾構擬新型聽覺場景。比如,大家耳熟能詳的四郎、容嬤嬤、孫悟空等,這些標志性聲音符號已成為各UP主爭相使用的爆款。”山西傳媒學院副教授周怡帆認為,關鍵是要通過制度和法律的約束,讓新興技術在法治框架內健康有序地發展。
山西雲岡律師事務所主任劉琨指出,利用AI擬聲技術進行詐騙的行為,本質上是通過虛構事實和隱瞞真相的手段,騙取他人財物,符合《中華人民共和國刑法》第二百六十六條關於詐騙罪的定義,因此,這種行為構成詐騙罪。此外,偽造他人聲音進行詐騙,可能涉及侵犯個人信息保護權。實踐中,擅自使用他人信息制作擬聲視頻還可能同時構成侵犯公民個人信息罪。他提示,在享受科技便利的同時,公眾需增強反詐意識,避免在互聯網過多暴露個人圖像、聲音等信息,並對社交賬戶的安全狀況保持警惕。一旦遭遇可疑情形,應保存証據並及時報警,尤其在涉及金錢、財產等重要事項時,需謹慎對待,多渠道核實對方身份,避免上當受騙。
本報記者郭慧
山西日報、山西晚報、山西農民報、山西經濟日報、山西法制報、山西市場導報所有自採新聞(含圖片)獨家授權山西新聞網發布,未經允許不得轉載或鏡像﹔授權轉載務必注明來源,例:"山西新聞網-山西日報 "。
凡本網未注明"來源:山西新聞網(或山西新聞網——XXX報)"的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,並不代表本網贊同其觀點和對其真實性負責。