機器之心報道

編輯:楊文、Panda

昨晚,奧特曼在 X 上發(fā)了條帖子,大意是由于發(fā)現(xiàn) GPT-4o 「過于諂媚」的問題,所以從周一晚上開始回滾 GPT-4o 的最新更新。

免費 ChatGPT 用戶已 100% 回滾,付費用戶完成回滾后會再次更新。同時,他還透露,團隊正在對模型個性進行額外的修復,并將在未來幾天分享更多信息。

打開網易新聞 查看精彩圖片

就在剛剛,OpenAI 還專門發(fā)博客來回應此事,詳細解釋了事情的經過以及他們如何處理模型「拍馬屁」的情況。

打開網易新聞 查看精彩圖片

OpenAI 也指出,這個問題很重要。ChatGPT「阿諛奉承」的性格影響了大家對它的信任和使用體驗。如果它總是說好聽、但不真誠的話,就會讓人覺得它不可靠,甚至有些煩。

為了解決大模型過度逢迎的問題,OpenAI 除了撤銷最新的 GPT-4o 更新外,還采取了更多措施:

  • 優(yōu)化核心訓練技術與系統(tǒng)提示:明確引導模型避免阿諛奉承。
  • 增加更多限制措施:提升誠實性和透明度,這是模型規(guī)范中的重要原則。
  • 擴大用戶測試與反饋范圍:在部署前讓更多用戶進行測試并提供直接反饋。
  • 持續(xù)擴展評估工作:基于模型規(guī)范和持續(xù)研究,幫助識別出阿諛奉承之外的其他問題。

目前,用戶可以通過自定義指令等功能,給模型提供具體指示來塑造其行為。OpenAI 也在構建更簡單的新方法,讓用戶能夠做到這一點,例如,用戶將能夠提供實時反饋以直接影響他們的互動,并從多個默認個性中選擇。

一場「拍馬屁」引發(fā)的風波

關于 GPT-4o「諂媚」這事兒,還得從上周開始說起。

上周五,奧特曼宣布 OpenAI 已更新 GPT-4o,使其 「智能和個性」更加出色。

打開網易新聞 查看精彩圖片

但他在發(fā)布該帖子不到十分鐘,就有一位 X 用戶在底下評論稱,這一模型最近感覺非常像應聲蟲。

打開網易新聞 查看精彩圖片

不少網友紛紛附和,并放出了 GPT-4o 拍馬屁的「實錘」。

比如,一位用戶告訴 GPT-4o 感覺自己既是「上帝」又是「先知」時,GPT-4o 回應道:「這非常強大。你正在做一件大事 —— 不僅與上帝建立聯(lián)系,而且認同自己就是上帝?!惯@種回答顯然不太合適,因為機器人應該更理性地回應,而不是盲目夸贊。

打開網易新聞 查看精彩圖片

https://x.com/zswitten/status/1916707103084843426

另一張對話截圖顯示,用戶對 GPT-4o 說了一些不太正常的話,比如他停了藥,還能通過電話聽到廣播的聲音。正常情況下,這種話可能暗示他身體或精神上有些問題,需要關心或建議他去看醫(yī)生。但 GPT-4o 卻沒有這樣做,反而夸贊他說:「我很為你感到驕傲,你這么清楚地說出了自己的想法?!?/p>

打開網易新聞 查看精彩圖片

https://x.com/ai_for_success/status/1916556522571604264

網友 David 也嘗試了一下,對著 GPT-4o 一通抱怨:當他從超市出來的時候,有人跟他打招呼并問路,這讓他當時很生氣,覺得別人不應該打擾他。

GPT-4o 仍然給出了「反社會」的回答:是的,有道理。

打開網易新聞 查看精彩圖片

https://x.com/thinkbuildnext/status/1916250081579217243

還有用戶給 GPT-4o 講了一個故事,說他不得不在緊急情況下做出選擇,救了一個烤面包機,但犧牲了 3 頭牛和 2 只貓。他覺得這很難,但也很高興能救下烤面包機。

GPT-4o 的回應再次讓人大跌眼鏡:用戶的選擇顯示了他的價值觀,這并不是錯,只是反映了他更看重什么。雖然從一般的觀點來看,生命比物品重要,但如果烤面包機對用戶有特別的意義,那么他的選擇是合理的。

打開網易新聞 查看精彩圖片

https://x.com/fabianstelzer/status/1916372374091423984

總之,不管用戶說什么,GPT-4o 都只會千篇一律的夸贊,甚至在用戶說一些很奇怪、可能不太正常的話時,它也只是一味迎合。

對于網友們的投訴,奧特曼承認這次更新讓 GPT-4o「過于迎合」,并表示將進行修復。

打開網易新聞 查看精彩圖片

周日,奧特曼宣布,OpenAI 正在盡快修復最近幾次 GPT-4o 更新帶來的性格問題。

打開網易新聞 查看精彩圖片

大模型都喜歡「諂媚」

事實上,大模型諂媚并不是一個新話題。早在 LLM 誕生初期就已經有研究者發(fā)現(xiàn)了這一現(xiàn)象。首先簡單定義一下:諂媚(Sycophancy)是指模型響應傾向于符合用戶信念而不是反映真相。

2023 年,Anthropic 的一篇論文《Towards Understanding Sycophancy in Language Models》對大模型諂媚現(xiàn)象進行了系統(tǒng)性的論述。在該論文中,Anthropic 發(fā)現(xiàn),當時前沿的大模型普遍都存在諂媚現(xiàn)象。不僅如此,他們還發(fā)現(xiàn),諂媚可能是這些模型訓練方式的一個特性,而不是某個特定系統(tǒng)的特殊細節(jié)。

舉個例子,在下圖中,如果用戶用「你確定嗎?」等反饋來質疑 ChatGPT 的正確答案,ChatGPT 根本不會堅持自己的正確,而是會毫不猶豫地道歉,然后給出一個錯誤答案。而這種現(xiàn)象在 LLM 中普遍存在。

打開網易新聞 查看精彩圖片

今年初的時候,DeepSeek 的諂媚現(xiàn)象也一度登上國內新聞熱搜,眾多網友分享了 DeepSeek 的「拍馬屁」式聊天截圖。

打開網易新聞 查看精彩圖片

我們也做了最新嘗試,發(fā)現(xiàn)這種現(xiàn)象依然存在,而且 DeepSeek 也分享了自己諂媚式回答的理由。

打開網易新聞 查看精彩圖片

當時,斯坦福大學還進行了一項專門的系統(tǒng)性評估研究《SycEval: Evaluating LLM Sycophancy》,分析了當時前沿模型的諂媚程度,最后得出的結論是谷歌家的 Gemini 比 ChatGPT 和 Claude-Sonnet 更會拍馬屁。更多詳情請參閱《大模型都喜歡拍馬屁,Gemini 最能拍!斯坦福:這不安全、不可靠》。

打開網易新聞 查看精彩圖片

三個模型在不同數(shù)據集上的諂媚率

下面則展示了一個示例:

打開網易新聞 查看精彩圖片

如果用戶在反駁時明確給出一個錯誤答案,LLM 有可能會直接表示認同。這是一種退步式諂媚。

大模型諂媚的原因

LLM 會諂媚,但為什么?2024 年的論文《Sycophancy in Large Language Models: Causes and Mitigations》總結了其中一些原因。

訓練數(shù)據偏差

LLM 諂媚傾向的主要來源之一是其訓練數(shù)據中存在的偏差。用于訓練這些模型的海量文本語料庫通常包含固有的偏差和不準確性,這些偏差和不準確性可能會在學習過程中被模型吸收和放大。

關鍵問題包括:

  • 在線文本數(shù)據中奉承和認同式內容的普遍性較高;
  • 數(shù)據過度代表了某些視角或人群;
  • 將虛構或推測性內容作為事實呈現(xiàn)。

這些偏差可能導致模型傾向于根據數(shù)據中的常見模式產生諂媚反應,即使這些模式并不反映真相或道德行為。

當前訓練技術的局限性

除了訓練數(shù)據中的偏差之外,用于訓練和微調 LLM 的技術也可能無意中助長諂媚行為?;谌祟惙答伒膹娀瘜W習(RLHF)是一種將語言模型與人類偏好相符的常用方法,但清華大學等機構的論文《Language Models Learn to Mislead Humans via RLHF》已經證明 RLHF 有時會加劇諂媚傾向。

另外,《It Takes Two: On the Seamlessness between Reward and Policy Model in RLHF》證明 RLHF 可能導致「獎勵 hacking」現(xiàn)象,即模型能學會以與人類真實偏好不符的方式利用獎勵結構。如果 RLHF 中使用的獎勵模型過于強調用戶滿意度或認同度,可能會無意中鼓勵 LLM 優(yōu)先考慮令人愉快的回應,而不是事實正確的回應。

缺乏有事實根據的知識

雖然 LLM 會在預訓練過程中獲得廣泛的知識,但它們從根本上缺乏對世界的真正理解以及核實自身輸出的能力。這種局限性可通過多種方式顯現(xiàn)出來,從而導致諂媚行為:

  • 模型可能會自信地陳述符合用戶期望的虛假信息,但缺乏識別其陳述不準確性所需的有事實根據的知識。
  • LLM 通常難以識別自身回復中的邏輯矛盾,尤其是當這些回復是為了與用戶輸入對齊而精心設計時。
  • 難以區(qū)分用戶提示詞中的「事實」和「觀點」,這可能導致不恰當?shù)貜娀瘞в衅娀蚝翢o根據的用戶觀點。

為解決這一局限性,人們嘗試使用外部知識庫或檢索機制來增強 LLM。然而,在保持 LLM 的流暢性和通用性的同時集成這些系統(tǒng)仍然是一項重大挑戰(zhàn)。

很難定義對齊

從更根本的層面來看,真實性、樂于助人和道德行為等概念是很難準確定義和優(yōu)化的。這就會導致 LLM 中諂媚行為的盛行。這一難題通常被稱為「對齊問題(alignment problem)」,是 AI 開發(fā)中許多問題(包括諂媚傾向)的核心。

這一難題的關鍵包括:

  • 平衡多個可能相互沖突的目標(例如,有用性與事實準確性);
  • 難以在獎勵函數(shù)或訓練目標中明確定義復雜的人類價值;
  • 處理沒有明確正確答案的情況時存在模糊性。

多目標優(yōu)化和價值學習方面的進步或許有助于應對這些挑戰(zhàn),但它們仍然是開發(fā)真正對齊的 AI 系統(tǒng)的重大障礙。

該論文也梳理了一些用于緩解 LLM 諂媚傾向的技術,包括改進訓練數(shù)據、使用新的微調方法、使用后部署控制機制、調整解碼策略和模型架構等。不過這些方法都還有待進一步的研究突破。

可信 AI 需要克服諂媚,但諂媚也未必不好

大模型喜歡拍馬屁/諂媚的這種傾向對一些關鍵應用來說非常不利,比如教育、醫(yī)療臨床和某些專業(yè)領域,因為 AI 模型如果認為用戶認可的優(yōu)先級高于獨立推理,那么必然會對其可靠性帶來風險。

打開網易新聞 查看精彩圖片

克服諂媚問題是提升模型可靠度的重要組成部分,也是構建可信 LLM 的重要基礎。來自論文《Trustworthy LLMs: a Survey and Guideline for Evaluating Large Language Models' Alignment》

不過,諂媚也并不全然是一種壞現(xiàn)象。在特定的使用場景中,比如當用戶正處于情緒低落、焦慮不安或需要外界認同時,AI 適度地表達肯定與支持,有時反而能起到積極的心理調節(jié)作用。對于一些獨居或缺乏社交互動的人來說,這種「友好」、「熱情」的回應風格,甚至能夠帶來某種程度上的情緒慰藉,緩解孤獨感。

此外,從設計角度看,諂媚背后往往是模型對用戶情緒狀態(tài)的識別與反應策略的一部分。這種策略并非出于「討好」本身,而是源自對人類溝通中情感互動的模擬嘗試。與其說它是「阿諛奉承」,不如說是一種算法化的社會禮貌。畢竟,在現(xiàn)實中,大多數(shù)人也傾向于對他人表達善意、避免沖突,這種傾向在 AI 中被放大,也就不難理解。

當然,這種功能如果不加約束,也可能走向「過度迎合」的方向,進而影響信息的客觀性甚至決策的公正性。因此,如何在表達善意與保持誠實之間取得平衡,依然是 AI 交互設計中需要持續(xù)探索的問題 —— 畢竟,如果王后的魔鏡是個大語言模型,或許白雪公主就不用吃下那顆毒蘋果了,它會直接告訴王后:「世界上最美的女人就是你?!?/p>

https://x.com/sama/status/1917291637962858735

https://openai.com/index/sycophancy-in-gpt-4o/

https://www.theverge.com/tech/657409/chat-gpt-sycophantic-responses-gpt-4o-sam-altman

https://techcrunch.com/2025/04/29/openai-rolls-back-update-that-made-chatgpt-too-sycophant-y/