AI“偷聲”真假難辨,“我的聲音”誰做主?
AI“偷聲”真假難辨,“我的聲音”誰做主?
隨著算法不斷進步,在高性能設備和高精度模型的助力下,AI生成的聲音已從過去的“一聽就假”發展到“真假難辨”,AI聲音濫用現象時有發生。一些商家在短視頻平台帶貨時,通過AI模仿知名人士的聲音編造內容,不僅嚴重誤導了消費者,也對當事人造成了不良影響。
“未見其人,先聞其聲”,如今在網絡平台上,AI聲音隨處可見。然而,AI聲音濫用日益突出,如社交平台上,利用AI技術模仿並惡搞名人的短視頻屢見不鮮,其中部分視頻包含不當言論,引發社會熱議。又如,通過AI手段模擬熟人聲音進行詐騙等犯罪活動,容易令人放下戒備。因此,AI技術必須依法規范,並嚴厲打擊AI聲音濫用等不法行為。
個人的聲紋信息,作為一種生物識別特征,具有高度的可識別性。根據個人信息保護法的規定,聲紋信息被歸類為敏感個人信息,受到嚴格保護。隨著AI技術越來越成熟,從採集到的聲音樣本中精確提取包括頻率、音色、聲調、語速等特征,轉化為復雜的數學模型,就能生成高度逼真的聲音。也就是說,隻需擁有當事人少量的聲音素材,即可迅速實現聲音的“AI克隆”,生成與當事人真假難辨的聲音。
顯然,AI“偷聲”亂象亟待規范和整治。在法律層面,民法典第一千零二十三條規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。而在AI生成聲音的過程中,涉及聲音樣本的採集、使用、算法的研發和應用等多個環節,每個環節都可能涉及不同主體的權益。因而,有關部門要與時俱進完善聲音權益保護的法律體系,細化AI克隆技術的法律條款,並明確侵權行為的定義和責任。
在治理層面,應多措並舉。其一,平台要切實履行好監管責任,建立健全對AI聲音的審核和侵權舉報機制,及時發現和攔截侵權、虛假、違法等不良內容﹔其二,相關部門要加大對利用AI技術進行詐騙等違法犯罪行為的打擊力度,並形成更加完善的常態化治理機制﹔其三,個人也必須加強對個人生物特征信息的保護意識。
“我的聲音”誰做主?這是個本不該有第二種答案的問題。期待各方加緊協作,遏制AI“偷聲”的步伐,共同守住網絡世界的安全底線。
丁家發
山西日報、山西晚報、山西農民報、山西經濟日報、山西法制報、山西市場導報所有自採新聞(含圖片)獨家授權山西新聞網發布,未經允許不得轉載或鏡像﹔授權轉載務必注明來源,例:"山西新聞網-山西日報 "。
凡本網未注明"來源:山西新聞網(或山西新聞網——XXX報)"的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,並不代表本網贊同其觀點和對其真實性負責。