
經(jīng)常上網(wǎng)瀏覽信息的朋友可能會發(fā)現(xiàn),近期的中文互聯(lián)網(wǎng)上,充斥著濃濃的“AI味”。隨著DeepSeek等應(yīng)用的全面普及,寫文章似乎不再是“敲鍵盤”的活,而成為了AI“一鍵生成”的游戲。
然而,眾多內(nèi)容發(fā)布者似乎都沒有意識到,生成式AI的本質(zhì),是通過概率模型預(yù)測詞序的“語言魔術(shù)師”。其運(yùn)作機(jī)制決定必然會生成大量“幻覺”的內(nèi)容,斯坦福大學(xué)AI倫理研究中心發(fā)現(xiàn),主流大模型在開放域問答中的事實錯誤率高達(dá)32%,且錯誤內(nèi)容往往具有高度迷惑性。
更令人驚訝的是,大模型的能力越強(qiáng)大,其編造的謊言“看上去”更真實,DeepSeek這樣強(qiáng)大的大模型編造故事的能力也會更強(qiáng)。實際上,DeepSeek-R1強(qiáng)大的創(chuàng)造力部分源于其獨特的獎懲訓(xùn)練機(jī)制,模型通過思維鏈深度生成內(nèi)容,其主打一個“你敢問我就敢答”“寧可編造也要漂亮完成任務(wù)”。
當(dāng)用戶要求創(chuàng)作某個主題的內(nèi)容時,生成式AI往往會主動虛構(gòu)數(shù)據(jù)、案例來完善論述,這種“靶向編造”能力具有極強(qiáng)的欺騙性,一般人很難辨別。更嚴(yán)峻的是,虛假信息經(jīng)網(wǎng)絡(luò)傳播后,又會被AI吸收訓(xùn)練,并通過聯(lián)網(wǎng)功能進(jìn)行引用,形成虛假信息的“循環(huán)陷阱”。
近期,網(wǎng)絡(luò)上有一篇關(guān)于“軍工虎”譚瑞松的爆火文章,其標(biāo)題是《軍工虎譚瑞松, 從“道德標(biāo)兵”到“獵艷狂魔”,“國之重器”淪為私人金庫》,目前原文已經(jīng)被作者刪除。但文中很多“爽文小說”的情節(jié)還在流傳,例如“直升機(jī)圖紙暗網(wǎng)標(biāo)價200比特幣出售”“收受金條要求熔成發(fā)動機(jī)葉片形狀”“某總師離職時留言這里不是造飛機(jī)的地方而是造孽的工廠”等等。這些都讓人不得不佩服DeepSeek的強(qiáng)大“編造能力”,一般的大模型,還真編不出如此惟妙惟肖的情節(jié)。
生成式AI強(qiáng)大的“以假亂真”能力,會導(dǎo)致相關(guān)虛假信息呈現(xiàn)指數(shù)級擴(kuò)散態(tài)勢。MIT媒體實驗室監(jiān)測數(shù)據(jù)顯示,AI生成的虛假內(nèi)容傳播速度是人工編造信息的6倍,而受眾辨識準(zhǔn)確率不足40%。當(dāng)虛假信息披著邏輯嚴(yán)密、數(shù)據(jù)詳實的外衣時,傳統(tǒng)的事實核查機(jī)制顯得力不從心。
技術(shù)本身是中立的,DeepSeek等生成式人工智能工具,一方面可以幫助人們提高生產(chǎn)力;另一方面也“自帶”編造謊言甚至謠言的能力。因此,解決問題的關(guān)鍵還在于AI工具的使用者和內(nèi)容的發(fā)布者。
在內(nèi)容發(fā)布的角度來看,內(nèi)容發(fā)布人應(yīng)當(dāng)對使用AI輔助生成的內(nèi)容盡到核查義務(wù),如果發(fā)布了由AI生成的虛假信息,應(yīng)當(dāng)按照發(fā)布虛假信息,負(fù)相應(yīng)責(zé)任。內(nèi)容發(fā)布平臺可開發(fā)“AI指紋”等檢測工具,同時對多次傳播虛假信息的賬號實施流量降權(quán)乃至封號。DeepSeek等廠商應(yīng)不斷優(yōu)化模型的事實核查模塊,建立用戶信用評級體系。
現(xiàn)行法規(guī)體系在應(yīng)對AI內(nèi)容亂象時存在短板。內(nèi)容發(fā)布者和平臺方容易以所謂“避風(fēng)港”原則推卸責(zé)任,而《生成式人工智能服務(wù)管理暫行辦法》等法規(guī)對責(zé)任主體的界定仍顯模糊。更為嚴(yán)峻的是,大量AI生成內(nèi)容難以追溯創(chuàng)作源頭,形成監(jiān)管真空。
從立法的角度來看,建議明確"三重責(zé)任":發(fā)布者必須標(biāo)注AI生成并對內(nèi)容真實性負(fù)責(zé),平臺需建立溯源審查機(jī)制,模型開發(fā)者應(yīng)當(dāng)完善事實核查接口。特別是對于醫(yī)療、司法等關(guān)鍵領(lǐng)域,AI應(yīng)用不應(yīng)當(dāng)“大干快上”,而是要實施分級管控,完善高風(fēng)險場景使用的技術(shù)和程序規(guī)范。
熱門跟貼