號稱“OpenAI迄今為止最強模型”,o3/o4-mini真實能力究竟如何?

打開網(wǎng)易新聞 查看精彩圖片

就在發(fā)布后的幾小時內(nèi),網(wǎng)友們的第一波實測已新鮮出爐。

最強推理模型o3,即使遇上首位全職提示詞工程師Riley Goodside的“刻意刁難”,也順利過關(guān):

打開網(wǎng)易新聞 查看精彩圖片

可以看到,面對藏在一堆玩具里的手繪圖表,它也能通過圖像識別和推理能力正確解答。

打開網(wǎng)易新聞 查看精彩圖片

o4-mini作為一款專為快速、經(jīng)濟高效的推理而優(yōu)化的小模型,在數(shù)學能力方面堪稱強悍——

用時2分55秒,解決了最新的歐拉問題,并且該網(wǎng)友強調(diào):

  • 至今只有15個人能夠在30分鐘內(nèi)解決它。

打開網(wǎng)易新聞 查看精彩圖片

與此同時,OpenAI內(nèi)部技術(shù)人員也表示,o3的出現(xiàn)讓他第一次萌生了將模型稱為通用人工智能(AGI)的念頭。

打開網(wǎng)易新聞 查看精彩圖片

眼見氣氛都烘托到這兒了,那我們還不得趕緊看看更多實測效果(doge)。

網(wǎng)友實測o3/o4-mini

首次帶圖深度思考

首先,官方提到,o3和o4-mini是OpenAI首次能將上傳圖像集成到思維鏈中的模型——

這意味著,它們可以基于圖像展開思考

比如有人隨手上傳一張照片,讓o3來判斷拍攝時間和地點,而且要求能具體到地圖上的某一個點。

結(jié)果令這位小哥驚訝的是,其答案和實際情況之間的誤差非常小:

  • 地點僅相差1000英尺(約305米),時間僅相差2分鐘。

打開網(wǎng)易新聞 查看精彩圖片

更有意思的是,假如一張圖上的小字看不清,通過扒思維鏈還能發(fā)現(xiàn)——o3甚至會自己“偷偷放大”。

打開網(wǎng)易新聞 查看精彩圖片

難怪在針對復雜多模態(tài)謎題的EnigmaEva測試基準中,o3能拿下SOTA。

打開網(wǎng)易新聞 查看精彩圖片

不過值得注意的是,據(jù)自稱OpenAI員工的網(wǎng)友爆料,雖然基準測試結(jié)果存在差異,但o4-mini實際上是比o3更好的視覺模型。

該網(wǎng)友甚至直接建議大家:

  • 在任何涉及視覺的任務(wù)中使用o4-mini-high而不是o3。

打開網(wǎng)易新聞 查看精彩圖片

巧合的是,在大多需要計算復雜數(shù)學題的帶圖測試中,大家竟默契選擇了o4-mini而非o3。

除了一開頭提到的解答歐拉問題的例子,o4-mini也被用來解讀技術(shù)圖紙。

該網(wǎng)友表示,對于這種大多AI都很難搞定的難題,它一次就成功了:

  • o4 mini(high)能夠分析該部件的尺寸并準確計算出正確體積。

打開網(wǎng)易新聞 查看精彩圖片

編程能力

其次,兩個新模型這次在編程能力上都有一定程度升級,測試結(jié)果表明:

其中o3 High取代谷歌Gemini-2.5,拿下編程第一。

打開網(wǎng)易新聞 查看精彩圖片

順帶OpenAI這次還開源了一個本地代碼智能體Codex CLI——

它是一種聊天驅(qū)動的開發(fā)方式 ,能夠理解并執(zhí)行本地代碼庫,兼容所有OpenAI模型,包括剛剛發(fā)布的o3、o4-mini和GPT-4.1。

賓大沃頓商學院教授Ethan Mollick,這次直接利用o3的推理+編程能力制作了一個小短片:

打開網(wǎng)易新聞 查看精彩圖片

從完整制作過程來看,這里還同步考察了o3調(diào)用各項工具的能力

  • 第一步:理解需求;
  • 第二步:使用編程庫生成幀,并將這些幀組合成一個視頻文件;
  • 第三步:使用Python的PIL庫(Pillow)來處理圖像,使用imageio庫來創(chuàng)建視頻文件;
  • 第四步:生成幀;

打開網(wǎng)易新聞 查看精彩圖片

最后我們也簡單實測了一把,重點考察一下o3和o4-mini的推理能力。

比如讓它們分別幫忙看看“手相”,o3的結(jié)果如下:

打開網(wǎng)易新聞 查看精彩圖片

o4-mini:

打開網(wǎng)易新聞 查看精彩圖片

可以看到,兩個模型對人物性格特征的判斷大致相似,不過o3還額外給了一些提示建議。

p.s. 原圖為AI生成,大家感興趣可以自己試試~

One More Thing

有趣的是,有網(wǎng)友在實測o3的過程中還發(fā)現(xiàn)了一個現(xiàn)象:

  • o系列模型比GPT系列模型更容易錯誤地聲稱使用了代碼工具

打開網(wǎng)易新聞 查看精彩圖片

為此他們還專門寫了一篇博客,其中揭露了:o3經(jīng)常編造其為滿足用戶請求而采取的行動,并在用戶質(zhì)疑時詳細地為這些編造進行辯解。

打開網(wǎng)易新聞 查看精彩圖片

就像下面這樣,模型聲稱它在筆記本電腦上運行了實際并不存在的代碼。

打開網(wǎng)易新聞 查看精彩圖片

而且通過進一步研究發(fā)現(xiàn),這些偽造行為包括下面這些:

1、錯誤地聲稱執(zhí)行代碼,聲稱“我本地運行了這個”或“運行它產(chǎn)生了”后面跟著特定輸出,而模型沒有能力執(zhí)行Python或其他編程語言;

2、編造詳細的計算結(jié)果,包括特定的數(shù)值、統(tǒng)計數(shù)據(jù)和加密哈希值,表現(xiàn)為它們是實際執(zhí)行輸出而不是估計或示例;

打開網(wǎng)易新聞 查看精彩圖片

同時,他們也初步提出了造成這一現(xiàn)象的可能原因:

首先就是模型幻覺和獎勵黑客攻擊,他們表示這些問題在o系列模型中尤為普遍。

另外,使用基于結(jié)果的強化學習可能會導致模型盲目猜測,并且某些行為(如模擬代碼工具)可能會在某些任務(wù)上提高準確性,但在其他任務(wù)上造成混淆。

最后就是,o系列模型在處理連續(xù)對話時有一個限制,它們無法訪問之前的推理過程,這可能導致模型在回答問題時出現(xiàn)不準確或不一致的情況。

打開網(wǎng)易新聞 查看精彩圖片

順便一提,即日起,ChatGPT的Plus、Pro會員以及Team用戶,都能直接體驗o3、o4-mini和o4-mini-high,而原本的o1、o3-mini和o3-mini-high則已悄然下架。

你怎么看OpenAI這次發(fā)布的o3和o4-mini?

博客:
https://transluce.org/investigating-o3-truthfulness