在人工智能飛速發(fā)展的當(dāng)下
對(duì)于廣大學(xué)生和科研工作者而言
一個(gè)關(guān)鍵問題隨之而來(lái)
借助這些前沿大模型寫論文
真的靠譜嗎?

不久前
#防止DeepSeek亂編文獻(xiàn)的方法#
沖上熱搜
記者注意到
用AI工具寫論文“被坑”的經(jīng)歷
并非鮮見

有網(wǎng)友列出了自己的親身經(jīng)歷
除了編造論文文獻(xiàn)
AI還會(huì)編造法律條文
甚至教人做菜還跑偏了


問AI一個(gè)問題,它給了你一個(gè)特別詳細(xì)、豐富,看上去好有邏輯的答案。但當(dāng)我們?nèi)ズ藢?shí)時(shí),卻發(fā)現(xiàn)這些信息完全是虛構(gòu)的。這就是著名的“AI幻覺”現(xiàn)象。
“AI幻覺”指的是AI會(huì)生成看似合理但實(shí)際確實(shí)錯(cuò)誤的信息,最常見的表現(xiàn)就是會(huì)編造一些不存在的事實(shí)或者細(xì)節(jié)。
造成“AI幻覺”的成因很多,例如:基于統(tǒng)計(jì)關(guān)系的預(yù)測(cè);訓(xùn)練數(shù)據(jù)的局限性;過擬合問題,即因?yàn)橛涀×颂噱e(cuò)誤或者無(wú)關(guān)緊要的東西,從而讓AI對(duì)訓(xùn)練數(shù)據(jù)中的噪聲過于敏感;有限的上下文窗口;生成流暢回答的設(shè)計(jì)等等。

那么,當(dāng)AI會(huì)說(shuō)謊,大家如何避免被“帶偏”?技術(shù)浪潮中,我們?nèi)绾问刈o(hù)自己的思辨能力?
中國(guó)人民大學(xué)新聞學(xué)院教授盧家銀指出,在知識(shí)建構(gòu)上,AI生成的虛假學(xué)術(shù)成果,可能扭曲青年對(duì)科學(xué)方法論的理解,削弱其“假設(shè)-驗(yàn)證”的科研邏輯訓(xùn)練。在思維發(fā)展上,AI謠言通過算法推薦的“信息繭房”形成邏輯閉環(huán),不利于批判性思維的培養(yǎng)。
進(jìn)南京擇校家長(zhǎng)群
獲取更多考試升學(xué)信息
北京師范大學(xué)教育學(xué)部教授、教育技術(shù)學(xué)北京市重點(diǎn)實(shí)驗(yàn)室副主任李艷燕建議,可以把AI看作一位平等對(duì)話的智者,通過引導(dǎo)與AI的對(duì)話互動(dòng),促進(jìn)個(gè)體思維鏈的形成,并校準(zhǔn)認(rèn)知偏差。這種去權(quán)威化的思辨訓(xùn)練,可以幫助我們?cè)谂cAI的對(duì)話中保持獨(dú)立判斷,實(shí)現(xiàn)認(rèn)知躍遷。
北京郵電大學(xué)馬克思主義學(xué)院副教授宋林澤認(rèn)為,AI輸出的內(nèi)容只是一個(gè)認(rèn)知起點(diǎn),而不是終點(diǎn)。大學(xué)生需要主動(dòng)去驗(yàn)證它的內(nèi)容,比如查閱權(quán)威來(lái)源、對(duì)比不同觀點(diǎn),甚至直接與領(lǐng)域?qū)<医涣鳌_@種驗(yàn)證過程,不僅能幫助我們更全面地理解問題,還能讓我們?cè)诿鎸?duì)復(fù)雜信息時(shí)更有判斷力。

如何應(yīng)對(duì)AI幻覺呢?
AI工具研究者田威提到,想要獲得準(zhǔn)確答案,提問方式很關(guān)鍵。與AI交流也需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準(zhǔn)確。
總結(jié)成提示詞技巧就是下面四種問法:
1.設(shè)定邊界:“請(qǐng)嚴(yán)格限定在xx年xx期刊發(fā)表的研究范圍內(nèi)”;
示例:“介紹ChatGPT的發(fā)展歷程”→“請(qǐng)僅基于OpenAI官方2022-2023年的公開文檔,介紹ChatGPT的發(fā)展歷程”
2.標(biāo)注不確定:“對(duì)于模糊信息,需要標(biāo)注‘此處為推測(cè)內(nèi)容’”;
示例:“分析特斯拉2025年的市場(chǎng)份額”→“分析特斯拉2025年的市場(chǎng)份額,對(duì)于非官方數(shù)據(jù)或預(yù)測(cè)性內(nèi)容,請(qǐng)標(biāo)注[推測(cè)內(nèi)容]”
3.步驟拆解:“第一步列舉確定的事實(shí)依據(jù),第二步展開詳細(xì)分析”;
示例:“評(píng)估人工智能對(duì)就業(yè)的影響”→“請(qǐng)分兩步評(píng)估AI對(duì)就業(yè)的影響:
1)先列出目前已發(fā)生的具體影響案例;
2)基于這些案例進(jìn)行未來(lái)趨勢(shì)分析”。
4.明確約束:明確告訴AI要基于已有事實(shí)回答,不要進(jìn)行推測(cè)。
示例:“預(yù)測(cè)2025年房地產(chǎn)市場(chǎng)走勢(shì)”→“請(qǐng)僅基于2024年的實(shí)際房地產(chǎn)數(shù)據(jù)和已出臺(tái)的相關(guān)政策進(jìn)行分析,不要加入任何推測(cè)性內(nèi)容”。
針對(duì)如何獲得準(zhǔn)確答案,AI自己的答案是,可以通過指令約束、工具驗(yàn)證和人工審核三重保障,大幅降低AI虛構(gòu)文獻(xiàn)的風(fēng)險(xiǎn)。值得注意的是,“人工審核”被AI自己認(rèn)為是“最后防線”。

專家提醒,“AI幻覺”并非沒有好處,有時(shí)候與其把它當(dāng)成缺陷,不如把它看作創(chuàng)意的源泉。在寫作、藝術(shù)創(chuàng)作或頭腦風(fēng)暴時(shí),這些“跳躍性思維”反而可能幫我們打開新世界的大門。
“AI幻覺”的本質(zhì)是,AI在知識(shí)的迷霧中,有時(shí)會(huì)創(chuàng)造出看似真實(shí),實(shí)則虛幻的“影子”。但就像任何工具一樣,關(guān)鍵在于如何使用。
歸根結(jié)底,在這個(gè)AI與人類共同進(jìn)步的時(shí)代,重要的不是責(zé)備AI的不完美,而是學(xué)會(huì)與之更好地協(xié)作。
來(lái) 源 | 人民日?qǐng)?bào)、中國(guó)青年報(bào)、科普中國(guó)、網(wǎng)友評(píng)論等
升學(xué)考試、擇校政策
熱門跟貼