打開網(wǎng)易新聞 查看精彩圖片

第一批受害者已出現(xiàn)

撰文/黎炫岐

編輯/陳鄧新

排版/Annalee

用AI搜集資料、做PPT、改論文……雖然AI暫時還不能“替代”人類,但不可否認的是,AI正以前所未有的速度,滲透進普通人的日常工作和生活中。

然而,已經(jīng)有越來越多人發(fā)現(xiàn),AI或許并不能取代自己的工作,但或許能讓自己丟掉工作。漏洞百出的數(shù)據(jù)、胡編亂造的資料和引用來源、禁不住考究的文史解讀……當你以為能靠AI省時省力地完成論文或工作,卻有可能反被AI“背刺”。在那些看似充足的數(shù)據(jù)和論據(jù)背后,說不定就藏有諸多錯誤信息。

而更令人擔憂的是,當這些信息被二次加工、援引和傳播,“后真相時代”將迎來更大的挑戰(zhàn)……

AI也會一本正經(jīng)說“瞎話”

AI也會一本正經(jīng)說“瞎話”

“年小從他愛梨栗?!碑敶髮W(xué)生薛云(化名)在準備一份課堂作業(yè)的PPT時,因為不確定這句詩里是“縱”還是“從”,便將這句詩輸入她常用的AI助手,卻發(fā)現(xiàn),AI回復(fù)稱,這句詩“化用自唐代詩人貫休《書石壁禪居屋壁》中的‘年少而何知,遇物盡虛擲。得穩(wěn)即自安,年衰需警策’,以兒童貪玩類比年少時易放縱……”

薛云很驚訝,因為這句詩實際上出自于王安石的《贈外孫》?!耙皇俏抑肋@詩,真的很容易被糊弄過去?!比欢?,當薛玉很生氣地回復(fù)AI助手,“你確定?”該AI助手再一次給出了錯誤的出處,“抱歉,原句出自韋莊的《與小女》……”

打開網(wǎng)易新聞 查看精彩圖片

這打破了薛玉對AI的認知,“如果查不出相關(guān)信息給不出答案,還可以理解。怎么還能瞎編?”

當薛玉差點被“坑”,在一家自媒體公司上班的雅雅也險些因AI“捅了大婁子”。不久前,為了更新一篇與“造紙史”相關(guān)的公眾號文章,雅雅需要搜集大量與之相關(guān)的資料,為了節(jié)省時間,她把需求發(fā)給DeepSeek,得到了這樣一段信息:“西安博物院藏唐代‘開元戶籍冊’殘片顯示,當時已出現(xiàn)80g/㎡的加厚公文紙(文物檢測報告)。這種以楮樹皮為原料的紙張,歷經(jīng)千年仍保持著0.3秒的墨水滲透速度。”

雅雅將這段話寫進文章后,臨要發(fā)布時再做了一次相關(guān)資料核查,卻發(fā)現(xiàn),在網(wǎng)上檢索不到以上這段信息的內(nèi)容,“甚至無法確認西安博物院是否藏有這一文物,因為能查到的資料顯示,是國家圖書館藏有相關(guān)殘片。更不用說這段話里涉及的數(shù)據(jù),更是無從考證?!毖叛藕芎笈?,如果自己把這段話寫進文章,文章又被再度援引,“后果不堪設(shè)想。”

而這并非孤例。事實上,在小紅書、微博等社交平臺,有不少人都分享了AI胡編亂造的情況。既有網(wǎng)友發(fā)現(xiàn)DeepSeek編造了“郭沫若在甲骨文研究中對‘各’的含義進行考釋”,也有網(wǎng)友發(fā)現(xiàn)豆包在被問及水滸傳不同版本的譯者時張冠李戴,還有網(wǎng)友發(fā)現(xiàn)DeepSeek連法條也能胡編亂造,“援引的法律法規(guī)全是錯的,甚至有幾句是編的,編得有模有樣……”

打開網(wǎng)易新聞 查看精彩圖片

其中,一篇名為“DeepSeek睜眼說瞎話,編造答案被我抓現(xiàn)行”的筆記提到,博主為了測試AI是否誠實,故意問了一組偏門問題,并且明確提示“如果不知道就直接說不知道”,然而,“DeepSeek在回答第一個問題時說不知道,回答第二個問題就開始編造答案。被我指出來并再次強調(diào)要不知道就說不知道后,還在繼續(xù)扯淡。直到我再次戳破其瞎話,并強調(diào)我有原書可以隨時校驗其回答后,才承認自己確實不知道?!?/p>

在這條筆記下,不少網(wǎng)友提到,“我問了兩個工作問題,也是給我無中生有,驢唇不對馬嘴”“我讓AI推薦小說,它直接給我瞎編,一本都搜不出來”……

此外,不僅用AI搞工作和學(xué)術(shù)不可靠,連日常生活也不一定能信任。

此前,B站一位UP 主就錄制了一期《用 DeepSeek 推薦買汕頭特產(chǎn),結(jié)果翻車了嗎?》。視頻中,UP 主向 DeepSeek 詢問汕頭手信店。雖然 DeepSeek 精準地讀取了 UP主的思維,按照生鮮、零食、茶葉、非遺手工品的分類進行了細分,顯得專業(yè)又可靠,但事實上,它所推薦的店面統(tǒng)統(tǒng)不存在。

迷信AI,只會害了自己

種種案例證明,雅雅的擔憂并非空穴來風。在播客《東腔西調(diào)》的一期節(jié)目中,清華大學(xué)社會科學(xué)學(xué)院社會學(xué)系副教授嚴飛也曾提到,當他讓DeepSeek概括簡介一本書的內(nèi)容時,其給出了一些并不準確的內(nèi)容,“而AI虛構(gòu)的內(nèi)容也可能會被反復(fù)引用?!?/p>

而這樣的事情,早已發(fā)生。

3月初,公安部網(wǎng)安局公布調(diào)查結(jié)果:網(wǎng)民夏某在視頻《80后到底還剩多少人》中捏造數(shù)據(jù)“截至2024年末,80后死亡率突破5.2%,相當于每20個80后中就有1人已經(jīng)去世”,被予以行政處罰。而據(jù)《新周刊》,這段內(nèi)容經(jīng)公安機關(guān)證實,正是由AI編造。

打開網(wǎng)易新聞 查看精彩圖片

此外,據(jù)公開報道,在《黑悟空》游戲上線后不久,來自國內(nèi)科技網(wǎng)站的一位員工在五小時內(nèi)接到了20來個 “騷擾電話”。而將其電話公布到網(wǎng)絡(luò)上的,是微軟的BingAI助手。當人們在Bing搜索中輸入“黑神話悟空客服”后,這位個人員工的手機號就會出現(xiàn)在搜索結(jié)果里。

不僅如此,AI有時還“硬加罪名”。據(jù)虎嗅,2023年,法學(xué)教授喬納森·特利(Jonathan Turley)收到了一位律師朋友的郵件。朋友告訴他,他的名字出現(xiàn)在ChatGPT列舉的“對他人實施性騷擾的法律學(xué)者”名單上。ChatGPT還給出了“性騷擾”信息的細節(jié):特利教授在前往阿拉斯加的班級旅行時,曾發(fā)表過性暗示言論并試圖觸摸一名學(xué)生。ChatGPT引用了一篇并不存在的《華盛頓郵報》文章作為信息來源。

正如《新周刊》所說,這就是所謂的“AI幻覺”——生成式AI是有可能“胡說八道”的,它們會在看似真實的陳述中夾雜錯誤信息。

值得一提的是,近日,在Vectara HHEM人工智能幻覺測試中,2025年1月發(fā)布的DeepSeek-R1模型顯示出高幻覺率。

對外經(jīng)濟貿(mào)易大學(xué)計算社會科學(xué)實驗室的嚴展宇也曾寫道:如果用于訓(xùn)練大模型的數(shù)據(jù)未經(jīng)嚴格篩選,本身存在謬誤,那么生成內(nèi)容便可能出錯。同時,AI會基于訓(xùn)練數(shù)據(jù)“編造”虛構(gòu)數(shù)據(jù)和事件,做出前后矛盾的陳述,產(chǎn)生“AI幻覺”,投喂虛假信息。此外,AI生成的內(nèi)容很大程度上與提問方式有關(guān),極易受提問者的思維定式和認知偏見影響,導(dǎo)致集中展示特定觀點、刻意回避某類信息、呈現(xiàn)片面真實等問題。

打開網(wǎng)易新聞 查看精彩圖片

而當鋅刻度向DeepSeek提問“為什么AI會胡編亂造”以及如何解決時,其給出回答稱,AI生成內(nèi)容時出現(xiàn)“胡編亂造”的現(xiàn)象,通常源于其技術(shù)原理的固有特點以及訓(xùn)練數(shù)據(jù)的局限性,其中包括:數(shù)據(jù)過時——若訓(xùn)練數(shù)據(jù)未覆蓋最新知識(例如2023年后的事件),AI可能依賴舊信息編造答案;數(shù)據(jù)偏見或錯誤——訓(xùn)練數(shù)據(jù)若包含錯誤或虛假信息,AI可能繼承并放大這些問題;知識盲區(qū)——面對超出訓(xùn)練范圍的問題,AI傾向于“填補空白”而非承認未知。并且,“多數(shù)生成式AI無實時驗證能力,無法像搜索引擎一樣主動核對事實?!?/p>

至于解決辦法,DeepSeek則提到,普通用戶在使用時可以優(yōu)化提問技巧,交叉驗證與人工審核、使用專業(yè)工具等等,而開發(fā)者則需要進行模型微調(diào)、搭建知識增強架構(gòu)、形成輸出約束機制等等。

而目前最有效的方法是:精準提問+多源驗證+工具輔助。對于關(guān)鍵任務(wù)(如法律、醫(yī)療),建議始終以AI輸出為初稿,由人類專家最終審核。

簡而言之,“技術(shù)發(fā)展史,是一部人類恐懼史”,而對AI的焦慮,或許是人類對新技術(shù)恐懼的歷史重現(xiàn)。擁抱AI或許是難逆的大趨勢,我們不應(yīng)恐懼,但也不能盲目迷信。畢竟,大部分AI都提醒了“內(nèi)容由 AI 生成,請仔細甄別”。如果一味盲目迷信AI,最終只會害了自己。