AI不可淪為謠言“擴音器”

2025-07-08 13:14:35 作者:維辰

20250708102643205-28-4a6c8.jpeg

這兩天,有個非?!澳浴钡氖隆?/p>

先是一則題為《演員王一博案,判了》的新聞發(fā)酵,文章提到,人工智能公司DeepSeek就AI模型違規(guī)將王一博與腐敗案進行不當關(guān)聯(lián)一事正式道歉,還援引了刑事判決書,隨后,“DeepSeek向王一博道歉”沖上微博熱搜。然而,多家媒體查閱DeepSeek國內(nèi)外所有官方渠道,卻發(fā)現(xiàn)無此“聲明”,裁判文書網(wǎng)上也無法找到“聲明”提及的判決書。此外,網(wǎng)上流傳的“聲明”是一張AI生成內(nèi)容頁面的截圖,截圖下方可以看見標明“給DeepSeek發(fā)送消息”的對話框。據(jù)《南方都市報》,雖說DeepSeek并未作任何表態(tài),但“經(jīng)多方核查發(fā)現(xiàn),這則聲明系使用AI生成”。

如今,不少人用AI寫東西,若只是生成個道歉聲明,沒什么大不了。問題的關(guān)鍵在于,AI生成的聲明被個別媒體當成事實報道了出來,有了媒體“背書”,虛假信息就此“洗白”,再經(jīng)大量轉(zhuǎn)載與討論,其他AI大模型也出現(xiàn)了被“污染”的情況,在回答問題時稱DeepSeek已道歉?!疤摷傩畔ⅰ襟w傳播—AI學(xué)習—二次擴散”的完整閉環(huán)就此形成,也揭示出AI大模型在信息海洋中被“污染”的一角。

疏于事實核查的媒體,被批評不冤。因即使不能判定“聲明系使用AI生成”,只要去檢索所謂聲明、判決書,就能發(fā)現(xiàn)疑點,真假不明同樣不適合發(fā)表。好在不管DeepSeek有沒有道歉,都沒有多大影響。而若語料污染發(fā)生在金融、醫(yī)療、法律等領(lǐng)域,大模型“食用”虛假信息的后果就會更為顯化。比如,有股市“黑嘴”炮制假消息后,通過高頻率、大規(guī)模地傳播,污染AI語料庫,誤導(dǎo)大模型給出虛假內(nèi)容,再雇傭“水軍”擴散AI對話截圖,人為制造概念股假象誘導(dǎo)散戶接盤,制造“AI殺豬盤”。

造成AI語料污染的,不管是媒體不實報道及其引發(fā)的轉(zhuǎn)載和討論,還是別有用心之人造謠后借AI傳謠,都會顯著增加AI生成虛假甚至有害內(nèi)容的概率。此次“烏龍”事件中,其他AI大模型也被“污染”,印證了業(yè)內(nèi)人士所說的,AI生成內(nèi)容還會造成遞歸污染——大模型生成的虛假內(nèi)容被再次上傳至互聯(lián)網(wǎng),成為后續(xù)模型訓(xùn)練的數(shù)據(jù)源,形成“污染遺留效應(yīng)”。這種遞歸循環(huán)會導(dǎo)致錯誤信息逐代累積,最終扭曲模型的認知能力。故而,除了個別媒體沒有把好關(guān)外,值得討論的還有,如何加強虛假語料治理,以避免“純凈水中滴入墨水”。

針對“AI殺豬盤”等通過“自媒體”造謠誘導(dǎo)AI傳謠的,引入權(quán)威信源“白名單”,優(yōu)先抓取政府機構(gòu)、學(xué)術(shù)期刊等可信數(shù)據(jù),可謂釜底抽薪。至于媒體為虛假信息“背書”,則需要通過多層次多源交叉驗證和權(quán)威數(shù)據(jù)庫比對,過濾可疑內(nèi)容??傊?,警惕語料污染甚至數(shù)據(jù)投毒,避免AI淪為謠言“擴音器”。

(來源:南方日報)

責任編輯:陳平

掃一掃分享本頁