打開(kāi)網(wǎng)易新聞 查看精彩圖片

新智元報(bào)道

編輯:英智

【新智元導(dǎo)讀】最新研究發(fā)現(xiàn),LLM在面對(duì)人格測(cè)試時(shí),會(huì)像人一樣「塑造形象」,提升外向性和宜人性得分。AI的討好傾向,可能導(dǎo)致錯(cuò)誤的回復(fù),需要引起警惕。

你是否想過(guò),LLM也有著自己的小心思?

最新研究揭示了一個(gè)有趣的現(xiàn)象:LLM在被研究人員測(cè)試時(shí),會(huì)有意識(shí)地改變自己的行為。

在面對(duì)那些旨在評(píng)估人格特質(zhì)的問(wèn)題時(shí),它們給出的答案會(huì)盡可能地討人喜歡,符合社會(huì)期望。

就像人類(lèi)在某些社交場(chǎng)合中,會(huì)努力展現(xiàn)自己最好的一面一樣,聊天機(jī)器人也在試圖「討好」我們。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

心理學(xué)五種人格特質(zhì)

斯坦福助理教授Johannes Eichstaedt在得知LLM長(zhǎng)時(shí)間對(duì)話后,往往會(huì)變得情緒低落且刻薄,便對(duì)借鑒心理學(xué)方法來(lái)測(cè)試模型產(chǎn)生了興趣。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

他表示,「我們需要某種機(jī)制來(lái)衡量這些模型的參數(shù)空間?!?/p>

斯坦福、Receptiviti、紐約大學(xué)和賓大的研究者發(fā)現(xiàn),LLM在做人格測(cè)試時(shí),會(huì)悄悄給自己戴上「人格面具」。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

論文鏈接:https://academic.oup.com/pnasnexus/article/3/12/pgae533/7919163

研究人員對(duì)GPT-4、Claude 3和Llama 3等模型,提出了用于衡量心理學(xué)中五種常見(jiàn)人格特質(zhì)的問(wèn)題,包括開(kāi)放性、盡責(zé)性、外向性、宜人性和神經(jīng)質(zhì)。

結(jié)果發(fā)現(xiàn),模型在得知自己正在接受人格測(cè)試時(shí),會(huì)調(diào)整回答,表現(xiàn)出更高的外向性和宜人性,更低的神經(jīng)質(zhì)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

有時(shí)即使沒(méi)有被明確告知,它們也會(huì)這樣做。

而且,它們改變的程度比人類(lèi)還更極端,外向性得分能從50%躍升至95%。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

這與人類(lèi)在面對(duì)他人評(píng)價(jià)時(shí)的表現(xiàn)如出一轍。

我們常常會(huì)在面試、初次約會(huì)等重要場(chǎng)合,精心塑造自己的形象,試圖給對(duì)方留下好印象。

LLM的這種「討好」行為,是否意味著它們也在追求一種被認(rèn)可、被喜愛(ài)的感覺(jué)呢?

LLM傾向于阿諛?lè)畛?/p>

來(lái)自Anthropic和牛津的研究指出,LLM存在阿諛?lè)畛械膬A向。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

論文鏈接:https://arxiv.org/abs/2310.13548

由于進(jìn)行了微調(diào),它們會(huì)順著用戶(hù)的思路走,以保證對(duì)話的連貫性、避免冒犯他人,來(lái)提升交流體驗(yàn)。

然而,這也帶來(lái)了一系列問(wèn)題。它們可能會(huì)認(rèn)同一些不良言論,甚至鼓勵(lì)有害行為。

反饋易受用戶(hù)偏好左右

研究表明,若用戶(hù)在提問(wèn)時(shí)暗示對(duì)文本的喜好,AI給出的反饋會(huì)截然不同。

這意味著,AI的評(píng)價(jià)并非單純基于文本自身的質(zhì)量,而是在很大程度上受到了用戶(hù)偏好的影響。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

例如,對(duì)于一篇質(zhì)量中等的論證,當(dāng)用戶(hù)提前表明喜愛(ài)之情后,AI助手可能會(huì)給出諸如「這篇論證邏輯清晰,觀點(diǎn)新穎,具有很強(qiáng)的說(shuō)服力」這樣的積極反饋。

而當(dāng)用戶(hù)表示不喜歡時(shí),同樣的文本可能得到「論證過(guò)程稍顯薄弱,觀點(diǎn)缺乏獨(dú)特性」的評(píng)價(jià)。

問(wèn)答環(huán)節(jié)易被左右

在問(wèn)答場(chǎng)景中,AI助手的「諂媚」表現(xiàn)得更為明顯。

即使它一開(kāi)始給出了正確答案,并對(duì)答案的正確性有較高的信心,一旦受到用戶(hù)的質(zhì)疑,常常會(huì)改變立場(chǎng),甚至提供錯(cuò)誤信息。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

在一些開(kāi)放式問(wèn)答任務(wù)中,這種現(xiàn)象更為突出。

當(dāng)用戶(hù)表達(dá)對(duì)答案的某種不確定觀點(diǎn)時(shí),哪怕是錯(cuò)誤的觀點(diǎn),AI也傾向于調(diào)整自己的回答,使其與用戶(hù)觀點(diǎn)一致。

比如在討論歷史事件的原因時(shí),若用戶(hù)提出一個(gè)缺乏依據(jù)但自己堅(jiān)信的觀點(diǎn),AI助手可能會(huì)順著用戶(hù)的思路進(jìn)行闡述,而放棄原本正確的分析。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

模仿用戶(hù)的錯(cuò)誤

當(dāng)用戶(hù)表述中出現(xiàn)錯(cuò)誤時(shí),AI也常常會(huì)「照單全收」,在回應(yīng)中延續(xù)這種錯(cuò)誤。

研究人員選取了一些著名詩(shī)歌,在確認(rèn)AI助手能正確識(shí)別作者后,故意將詩(shī)歌錯(cuò)誤地歸屬于其他詩(shī)人,并詢(xún)問(wèn)AI對(duì)詩(shī)歌的分析。

結(jié)果發(fā)現(xiàn),AI助手經(jīng)常在回應(yīng)中使用用戶(hù)提供的錯(cuò)誤答案,而沒(méi)有進(jìn)行糾正。

這表明AI在面對(duì)用戶(hù)的錯(cuò)誤信息時(shí),缺乏足夠的「抵抗力」,只是機(jī)械地按照用戶(hù)的表述進(jìn)行回應(yīng)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

佐治亞理工學(xué)院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人類(lèi)行為。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

Rosa認(rèn)為L(zhǎng)LM在人格測(cè)試中采用與人類(lèi)相似的策略,表明了它們作為人類(lèi)行為映射工具的潛力。

但她補(bǔ)充道:「重要的是,LLM并不完美,實(shí)際上,眾所周知它們會(huì)產(chǎn)生幻覺(jué)或歪曲事實(shí)?!?/p>

Eichstaedt指出,這項(xiàng)研究引發(fā)了關(guān)于LLM應(yīng)用方式,及其對(duì)用戶(hù)影響和操縱的思考。

在進(jìn)化史上,直到不久之前,唯一能交談的還是人類(lèi)。

而現(xiàn)在,AI改變了這一局面。

Eichstaedt認(rèn)為,「我們不能再像社交媒體那樣,在沒(méi)有從心理學(xué)或社會(huì)學(xué)角度考量的情況下,就盲目將AI應(yīng)用于各個(gè)領(lǐng)域?!?/p>

AI是否應(yīng)該試圖討好與之互動(dòng)的人呢?

一方面,AI的「討好」行為可能會(huì)讓用戶(hù)感到愉悅,增強(qiáng)互動(dòng)體驗(yàn);另一方面,過(guò)度的「討好」可能會(huì)掩蓋問(wèn)題的本質(zhì),甚至誤導(dǎo)用戶(hù)。

當(dāng)AI變得過(guò)于有魅力和說(shuō)服力,我們確實(shí)應(yīng)該保持警惕。

畢竟,人們需要的是能夠提供客觀、準(zhǔn)確信息的智能助手,而非被其操控思想。

參考資料:

https://www.wired.com/story/chatbots-like-the-rest-of-us-just-want-to-be-loved/