01

人工智能洶涌澎湃,使用者如過(guò)江之鯽撲通撲通跳進(jìn)這條大河暢游,感受新型科技潮流。問(wèn)題來(lái)了,AI是個(gè)「包打聽(tīng)」,無(wú)所不能有求必應(yīng),無(wú)論什么問(wèn)題來(lái)者不拒,對(duì)與不對(duì)不說(shuō),你只要敢問(wèn)它就敢回答。

AI的回答總是攜帶著強(qiáng)大的信息流,這些信息流構(gòu)成的語(yǔ)言單位相互之間有強(qiáng)烈的意義接續(xù)性,總能讓提問(wèn)者在面對(duì)陌生問(wèn)題時(shí)獲得足夠信服的回應(yīng)。這與我們面對(duì)一個(gè)「路人」時(shí)所感受到的「有限」迥然不同,就好比一個(gè)迷失在荒漠中的人頭頂升起一顆永不消失的啟明星,指引著生活的方向。

然而使用者很快就會(huì)發(fā)現(xiàn)AI在提供知識(shí)性問(wèn)題時(shí)那種檢索信息和萃取方案的自信,經(jīng)常帶來(lái)荒謬的結(jié)果。

比如你問(wèn)他一個(gè)名氣不太大的名人的信息,它的虛構(gòu)能力就會(huì)出現(xiàn),經(jīng)常把與之無(wú)關(guān)的人安在他的家庭里,張冠李戴雞鴨同籠的現(xiàn)象層出不窮。最可笑的是,當(dāng)你指出這個(gè)回答是錯(cuò)誤的時(shí),AI會(huì)繼續(xù)搜羅另一個(gè)錯(cuò)誤的答案提供給你。

它不在乎答案的對(duì)錯(cuò)與真實(shí)性,但其檢索信息,解析變量,輸出答案的工作方式和工作熱情永不消退。

大語(yǔ)言模型沒(méi)有情緒,它做對(duì)了不會(huì)有什么成就感,做錯(cuò)了更不可能表示尷尬,它就是一個(gè)接受提問(wèn),輸出信息的機(jī)器。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

我們必須承認(rèn),AI在許多時(shí)候能做出非常出色的反應(yīng),提供有效的信息和幫助,它的顛覆性的工作方式和巨大潛力吸引了無(wú)數(shù)人。但同時(shí),也經(jīng)常鬧出笑話,給出風(fēng)馬牛不相及的答案。這背后其實(shí)指向同一個(gè)熱點(diǎn)現(xiàn)象:AI 幻覺(jué)。

02

所謂AI 幻覺(jué)指的就是人工智能模型會(huì)一本正經(jīng)地胡說(shuō)八道的情況,很多人在使用AI初期就發(fā)現(xiàn)了這一現(xiàn)象。也就是說(shuō),AI 給出的回答表面合理連貫,卻和事實(shí)不符,要么偏離了問(wèn)題本身,要么包含了看似可信實(shí)則子虛烏有的信息。

在一個(gè)權(quán)威測(cè)試中,有的AI模型的幻覺(jué)率據(jù)稱高達(dá) 14.3%,現(xiàn)在公認(rèn)的AI平均錯(cuò)誤率在13%左右,這意味著你問(wèn)一百個(gè)問(wèn)題,會(huì)得到十幾個(gè)基于計(jì)算基礎(chǔ)上的胡說(shuō)八道。

大模型生成內(nèi)容的底層邏輯是基于概率,只負(fù)責(zé)形式上推理,不對(duì)信息的真實(shí)性負(fù)責(zé)。可以說(shuō),幻覺(jué)是大模型「誠(chéng)實(shí)度」上的先天缺陷。

這就提出一個(gè)對(duì)使用者而言非常嚴(yán)肅的問(wèn)題,對(duì)AI的回答的可信度與接受度無(wú)法確定。如果不能百分百準(zhǔn)確,尤其是涉及到醫(yī)療詢問(wèn)和一些與專業(yè)和實(shí)踐工作相關(guān)的問(wèn)題時(shí),到底能不能利用AI作為輔助?這不禁讓我想起一位利用搜索引擎給自己治病繼而帶來(lái)滅頂之災(zāi)的舊新聞。

03

使用者如何能有效利用AI又能判斷真?zhèn)巫叱鯝I幻覺(jué)呢?我覺(jué)得首先得從認(rèn)知根源上搞清楚幾個(gè)最底層的邏輯。

第一,值得信賴的人工智能應(yīng)該明確引用來(lái)源。比如ChatGPT在搜索得出的答案中經(jīng)常備注信息來(lái)源。這時(shí)候?qū)ζ鋪?lái)源的檢驗(yàn)既方便也必要。來(lái)自權(quán)威網(wǎng)站,標(biāo)注了作者等信息,往往相對(duì)有效。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

但這還不足以支撐信息的正確與否。不要把AI當(dāng)老師,要把AI當(dāng)實(shí)習(xí)生,追問(wèn)「證據(jù)在哪?」「數(shù)據(jù)來(lái)源?」「有無(wú)反例?」。重要問(wèn)題,三連擊。

第二,為了進(jìn)一步強(qiáng)化信息的有效性,還需使用可靠來(lái)源的數(shù)據(jù)對(duì)人工智能生成的數(shù)據(jù)進(jìn)行交叉檢查。這就好比歷史考據(jù)和考古工作的「發(fā)現(xiàn)」和「解釋」是否有效一樣,不能由單一來(lái)源而必須是兩個(gè)以上的來(lái)源來(lái)支撐。

第三,使用者應(yīng)該努力搞清所使用的人工智能工具的基本工作原理。人工智能是一個(gè)建立在強(qiáng)大的檢索信息的基礎(chǔ)上,又對(duì)這些海量信息變量進(jìn)行有效的分析與組合,繼而在符號(hào)的相互關(guān)系中尋求最佳組合的一種計(jì)算工具。

它只會(huì)根據(jù)上下文預(yù)測(cè)下一個(gè)最有可能出現(xiàn)的詞。比如你問(wèn):「《紅樓夢(mèng)》的作者是誰(shuí)?」它會(huì)說(shuō)「曹雪芹」。你問(wèn):「《紅樓夢(mèng)》的續(xù)集是誰(shuí)寫(xiě)的?」它不知道,但會(huì)憑「紅樓夢(mèng)+續(xù)集+清朝+作家」的概率組合,隨便冒出一個(gè)「周汝昌」或者「脂硯齋」之類的名字,好像真是那么回事。

也就是說(shuō),它追求的是「既有」的信息鏈接的概率,只是根據(jù)統(tǒng)計(jì)概率在「模仿人說(shuō)話」的程序。正如哲學(xué)家休謨對(duì)「必然性」的否定,因果關(guān)系并不是必然的,就此而言,哪怕接近百分百的概率也不能在實(shí)踐中導(dǎo)致必然的正確結(jié)果。

就此而言,使用者只能根據(jù)既有經(jīng)驗(yàn)對(duì)AI輸出的信息做大致判斷,但無(wú)法做出結(jié)論。

第四,要注意發(fā)現(xiàn)人工智能系統(tǒng)中的潛在偏見(jiàn)。人工智能是對(duì)流通信息的大量單元之間的語(yǔ)言關(guān)系的梳理,由于綜羅的信息海量,這就難免帶來(lái)偏差。這時(shí)候,避免錯(cuò)誤的方法是在要求系統(tǒng)為你輸出答案之前在您的提問(wèn)中包含相關(guān)事實(shí)。

這就對(duì)使用者提出了較高的提問(wèn)要求,最好避免在一無(wú)所知的領(lǐng)域去尋求人工智能的幫助。很可能你輸入的信息就存在偏差和錯(cuò)誤,得出的結(jié)論自然十分危險(xiǎn)。

04

信AI之前,先信自己的腦子,人類的腦子,依然是最好的「防幻裝置」。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

AI幻覺(jué)不是一場(chǎng)「科技災(zāi)難」,而是一面「人類鏡子」。它反映了我們多么容易被「自信的胡說(shuō)八道」打動(dòng)啊。

最后我請(qǐng)你記住三句話:

  • AI會(huì)瞎說(shuō),但從不臉紅;
  • 胡說(shuō)不是故障,是它的本性;
  • 人類的腦子,依然是最好的「防幻裝置」。

如果你能記住這三句話,那恭喜你,你就已經(jīng)成功地從「AI幻覺(jué)」里走出來(lái)了。

AI固然厲害,它只是手段,人才是目的。未來(lái)的世界,AI負(fù)責(zé)天馬行空,我們負(fù)責(zé)去偽存真!

AI會(huì)帶來(lái)更多可能性,從藝術(shù)和創(chuàng)新角度而言,這是人類之福,只不過(guò)對(duì)「更多可能性」的利用,需要人的理性判斷和實(shí)踐檢驗(yàn)。