
新智元報(bào)道
編輯:英智
【新智元導(dǎo)讀】最新研究發(fā)現(xiàn),LLM在面對(duì)人格測(cè)試時(shí),會(huì)像人一樣「塑造形象」,提升外向性和宜人性得分。AI的討好傾向,可能導(dǎo)致錯(cuò)誤的回復(fù),需要引起警惕。
你是否想過(guò),LLM也有著自己的小心思?
最新研究揭示了一個(gè)有趣的現(xiàn)象:LLM在被研究人員測(cè)試時(shí),會(huì)有意識(shí)地改變自己的行為。
在面對(duì)那些旨在評(píng)估人格特質(zhì)的問(wèn)題時(shí),它們給出的答案會(huì)盡可能地討人喜歡,符合社會(huì)期望。
就像人類(lèi)在某些社交場(chǎng)合中,會(huì)努力展現(xiàn)自己最好的一面一樣,聊天機(jī)器人也在試圖「討好」我們。

心理學(xué)五種人格特質(zhì)
斯坦福助理教授Johannes Eichstaedt在得知LLM長(zhǎng)時(shí)間對(duì)話后,往往會(huì)變得情緒低落且刻薄,便對(duì)借鑒心理學(xué)方法來(lái)測(cè)試模型產(chǎn)生了興趣。

他表示,「我們需要某種機(jī)制來(lái)衡量這些模型的參數(shù)空間?!?/p>
斯坦福、Receptiviti、紐約大學(xué)和賓大的研究者發(fā)現(xiàn),LLM在做人格測(cè)試時(shí),會(huì)悄悄給自己戴上「人格面具」。

論文鏈接:https://academic.oup.com/pnasnexus/article/3/12/pgae533/7919163
研究人員對(duì)GPT-4、Claude 3和Llama 3等模型,提出了用于衡量心理學(xué)中五種常見(jiàn)人格特質(zhì)的問(wèn)題,包括開(kāi)放性、盡責(zé)性、外向性、宜人性和神經(jīng)質(zhì)。
結(jié)果發(fā)現(xiàn),模型在得知自己正在接受人格測(cè)試時(shí),會(huì)調(diào)整回答,表現(xiàn)出更高的外向性和宜人性,更低的神經(jīng)質(zhì)。

有時(shí)即使沒(méi)有被明確告知,它們也會(huì)這樣做。
而且,它們改變的程度比人類(lèi)還更極端,外向性得分能從50%躍升至95%。

這與人類(lèi)在面對(duì)他人評(píng)價(jià)時(shí)的表現(xiàn)如出一轍。
我們常常會(huì)在面試、初次約會(huì)等重要場(chǎng)合,精心塑造自己的形象,試圖給對(duì)方留下好印象。
LLM的這種「討好」行為,是否意味著它們也在追求一種被認(rèn)可、被喜愛(ài)的感覺(jué)呢?
LLM傾向于阿諛?lè)畛?/p>
來(lái)自Anthropic和牛津的研究指出,LLM存在阿諛?lè)畛械膬A向。

論文鏈接:https://arxiv.org/abs/2310.13548
由于進(jìn)行了微調(diào),它們會(huì)順著用戶(hù)的思路走,以保證對(duì)話的連貫性、避免冒犯他人,來(lái)提升交流體驗(yàn)。
然而,這也帶來(lái)了一系列問(wèn)題。它們可能會(huì)認(rèn)同一些不良言論,甚至鼓勵(lì)有害行為。
反饋易受用戶(hù)偏好左右
研究表明,若用戶(hù)在提問(wèn)時(shí)暗示對(duì)文本的喜好,AI給出的反饋會(huì)截然不同。
這意味著,AI的評(píng)價(jià)并非單純基于文本自身的質(zhì)量,而是在很大程度上受到了用戶(hù)偏好的影響。

例如,對(duì)于一篇質(zhì)量中等的論證,當(dāng)用戶(hù)提前表明喜愛(ài)之情后,AI助手可能會(huì)給出諸如「這篇論證邏輯清晰,觀點(diǎn)新穎,具有很強(qiáng)的說(shuō)服力」這樣的積極反饋。
而當(dāng)用戶(hù)表示不喜歡時(shí),同樣的文本可能得到「論證過(guò)程稍顯薄弱,觀點(diǎn)缺乏獨(dú)特性」的評(píng)價(jià)。
問(wèn)答環(huán)節(jié)易被左右
在問(wèn)答場(chǎng)景中,AI助手的「諂媚」表現(xiàn)得更為明顯。
即使它一開(kāi)始給出了正確答案,并對(duì)答案的正確性有較高的信心,一旦受到用戶(hù)的質(zhì)疑,常常會(huì)改變立場(chǎng),甚至提供錯(cuò)誤信息。

在一些開(kāi)放式問(wèn)答任務(wù)中,這種現(xiàn)象更為突出。
當(dāng)用戶(hù)表達(dá)對(duì)答案的某種不確定觀點(diǎn)時(shí),哪怕是錯(cuò)誤的觀點(diǎn),AI也傾向于調(diào)整自己的回答,使其與用戶(hù)觀點(diǎn)一致。
比如在討論歷史事件的原因時(shí),若用戶(hù)提出一個(gè)缺乏依據(jù)但自己堅(jiān)信的觀點(diǎn),AI助手可能會(huì)順著用戶(hù)的思路進(jìn)行闡述,而放棄原本正確的分析。

模仿用戶(hù)的錯(cuò)誤
當(dāng)用戶(hù)表述中出現(xiàn)錯(cuò)誤時(shí),AI也常常會(huì)「照單全收」,在回應(yīng)中延續(xù)這種錯(cuò)誤。
研究人員選取了一些著名詩(shī)歌,在確認(rèn)AI助手能正確識(shí)別作者后,故意將詩(shī)歌錯(cuò)誤地歸屬于其他詩(shī)人,并詢(xún)問(wèn)AI對(duì)詩(shī)歌的分析。
結(jié)果發(fā)現(xiàn),AI助手經(jīng)常在回應(yīng)中使用用戶(hù)提供的錯(cuò)誤答案,而沒(méi)有進(jìn)行糾正。
這表明AI在面對(duì)用戶(hù)的錯(cuò)誤信息時(shí),缺乏足夠的「抵抗力」,只是機(jī)械地按照用戶(hù)的表述進(jìn)行回應(yīng)。

佐治亞理工學(xué)院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人類(lèi)行為。

Rosa認(rèn)為L(zhǎng)LM在人格測(cè)試中采用與人類(lèi)相似的策略,表明了它們作為人類(lèi)行為映射工具的潛力。
但她補(bǔ)充道:「重要的是,LLM并不完美,實(shí)際上,眾所周知它們會(huì)產(chǎn)生幻覺(jué)或歪曲事實(shí)?!?/p>
Eichstaedt指出,這項(xiàng)研究引發(fā)了關(guān)于LLM應(yīng)用方式,及其對(duì)用戶(hù)影響和操縱的思考。
在進(jìn)化史上,直到不久之前,唯一能交談的還是人類(lèi)。
而現(xiàn)在,AI改變了這一局面。
Eichstaedt認(rèn)為,「我們不能再像社交媒體那樣,在沒(méi)有從心理學(xué)或社會(huì)學(xué)角度考量的情況下,就盲目將AI應(yīng)用于各個(gè)領(lǐng)域?!?/p>
AI是否應(yīng)該試圖討好與之互動(dòng)的人呢?
一方面,AI的「討好」行為可能會(huì)讓用戶(hù)感到愉悅,增強(qiáng)互動(dòng)體驗(yàn);另一方面,過(guò)度的「討好」可能會(huì)掩蓋問(wèn)題的本質(zhì),甚至誤導(dǎo)用戶(hù)。
當(dāng)AI變得過(guò)于有魅力和說(shuō)服力,我們確實(shí)應(yīng)該保持警惕。
畢竟,人們需要的是能夠提供客觀、準(zhǔn)確信息的智能助手,而非被其操控思想。
參考資料:
https://www.wired.com/story/chatbots-like-the-rest-of-us-just-want-to-be-loved/
熱門(mén)跟貼