警惕AI偽造“權威答案”
警惕AI偽造“權威答案”
“參考文獻全是AI編的,連作者名字都查無此人!”近日,微博話題“防止DeepSeek亂編文獻的方法”登上熱搜,有網友利用AI工具輔助寫論文時,發現AI所給的參考文獻在正規的學術資料庫中根本找不到,內容、標題、作者都是其虛構出來的。不少網友也紛紛晒出自己的“踩坑”經歷:虛構名著中不存在的句子、亂編醫學典籍中不存在的醫術、“發明”歷史上完全沒有發生過的“史實”……看似無所不知的AI,似乎正悄然成為偽科學信息的制造源頭。
當下,AI工具早已成為輔助人們學習、工作的智能幫手。即使面對專業性很強的學術難題,它也可以提供一個有數據、有出處、有引用,邏輯自洽、內容翔實,看上去科學合理的答案。然而當人們去追根溯源、驗証信息真偽時,往往發現那些看似嚴謹的答案完全是子虛烏有。
不久前,一則“‘80后’死亡率突破5.2%”的消息刷屏網絡,聲稱“截至2024年末,每20個‘80后’中就有1人已經去世”。這份附有翔實人口數據、死因分析的“權威報告”被眾多自媒體和網友廣泛轉載,然而最終卻被証實為謠言,其數據實為AI工具自編自造。類似事件並非個例,AI甚至還可以篡改專業嚴謹的司法內容。“我用DeepSeek查《中華人民共和國民法典》裡一則條款,它言之鑿鑿地告訴我在第幾章第幾條,但實際上這一條的內容和它說的完全不一樣,本想通過AI快速搜索一下法條依據,沒想到它直接開始‘立法’了。”在太原從事法律工作的王秀妮哭笑不得地對記者說。她還提到,AI不僅會捏造法條,甚至還會編案例和判決文書。“如果這些假信息未經核查便被採信,很可能會造成嚴重后果。”她不無擔憂地說。
記者調查發現,在醫療、法律、歷史、文學等諸多嚴肅學科領域都曾有過AI編造、杜撰的偽科學信息,如AI提供的診療方案最終延誤病情、荒誕的“秘史”被當作學術成果等。隨著專業機構的接連辟謠,不少原本對AI工具盲目信賴的用戶開始重新審視其可靠性。網友@請叫我老周就無奈調侃:“AI亂編內容真假難辨,就連查証時,它都會繼續編造、自圓其說,徹底陷入‘信息套娃’,所以查專業知識還是老老實實翻書、查正規資料庫吧。”
“AI對科學信息的拼接和虛構本質上與謠言無異,隻不過相較於普通的謠言,它的偽裝能力更強,本身就披著科技的外衣,再加上晦澀專業術語的包裝,讓其自帶一種‘權威濾鏡’,讓人誤以為科學可靠,極易誤導公眾認知。”山西工商學院傳媒學院教師馮梅認為,AI既可以成為科學傳播的得力助手,但也可能淪為偽科學滋生的溫床。為此,她提醒廣大網友,在進行學術研究或科學探索時,不能過度依賴和輕信AI軟件,而應尋求科學、正規的專業機構、權威平台或者有資質的專家並進行交叉驗証,規避掉進偽科學的“陷阱”。
本報記者王少杰
山西日報、山西晚報、山西農民報、山西經濟日報、山西法制報、山西市場導報所有自採新聞(含圖片)獨家授權山西新聞網發布,未經允許不得轉載或鏡像﹔授權轉載務必注明來源,例:"山西新聞網-山西日報 "。
凡本網未注明"來源:山西新聞網(或山西新聞網——XXX報)"的作品,均轉載自其它媒體,轉載目的在於傳遞更多信息,並不代表本網贊同其觀點和對其真實性負責。