打開網(wǎng)易新聞 查看精彩圖片

新智元報道

編輯:犀牛 好困

【新智元導(dǎo)讀】一句話看懂:o3以深度推理與工具調(diào)用能力領(lǐng)跑復(fù)雜任務(wù),GPT-4.1超長上下文與精準(zhǔn)指令執(zhí)行適合API開發(fā),而o4-mini則堪稱日常任務(wù)的「性價比之王」。

如果你最近關(guān)注AI新聞,可能會被各種層出不窮的新模型搞的眼花繚亂。

尤其是堪稱「起名黑洞」的OpenAI,命起名來可謂是是毫無章法。

即便是AI圈的資深團(tuán)隊,在面對同時發(fā)布的o3、o4-mini、GPT-4.1、GPT-4.1 mini和GPT-4.1 nano時,也是蒙圈的。

打開網(wǎng)易新聞 查看精彩圖片

為了解決這個困擾,來自Every和DataCamp的團(tuán)隊在經(jīng)過反復(fù)測試、來回切換模型,折騰了很多提示詞后,得出了以下結(jié)論:

  • o3:OpenAI最新的旗艦?zāi)P停彩亲顣干疃人伎肌沟倪x手——專為自主復(fù)雜推理與工具調(diào)用設(shè)計。

  • o4?mini:效率發(fā)動機——速度快、價格低,對數(shù)學(xué)、視覺推理和成本敏感型開發(fā)任務(wù)表現(xiàn)驚人。它不是明星旗艦,也不是基準(zhǔn)霸主,但憑借效率優(yōu)勢,完全可以承擔(dān)一般的任務(wù)。

  • GPT?4.1:API專用的主力干將——指令遵循嚴(yán)謹(jǐn),長上下文記憶出眾。

打開網(wǎng)易新聞 查看精彩圖片

接下來,看看這三款模型的新特性、各自擅長什么,以及在Every團(tuán)隊的工作流中,它們實際表現(xiàn)如何。

o3

OpenAI最強推理模型

o3是OpenAI最新的前沿模型,旨在提升其在編碼、數(shù)學(xué)、科學(xué)與視覺感知等復(fù)雜任務(wù)上的推理能力。

它也是首個具備自主工具調(diào)用能力的推理模型,可使用搜索、Python、圖像生成以及圖像解讀等工具來完成任務(wù)。

憑借這一能力,就讓它在針對現(xiàn)實世界問題求解的高級基準(zhǔn)測試中表現(xiàn)出色,而此前的模型往往難以勝任。

OpenAI 特別強調(diào)了o3相較于o1的顯著提升,并將其定位為迄今為止功能最強、適用面最廣的模型。

o3不只是像GPT?4o那樣會用工具、能看圖——它還能把這些工具和圖像融入自己的推理過程。

o3的優(yōu)勢

? 工具調(diào)用

o3既懂得如何使用單個工具,也知道如何把多種工具串聯(lián)起來,并在關(guān)鍵時刻切換方案。

假設(shè)你上傳一張月度銷售圖表,它可能先用OCR提取數(shù)據(jù),再寫Python代碼計算同比增長,隨后檢索行業(yè)基準(zhǔn)為結(jié)果提供背景——一氣呵成。

在單條回復(fù)中,它最多可調(diào)用600次工具,邊執(zhí)行邊自我優(yōu)化;一旦出現(xiàn)問題,也能迅速調(diào)整方向。就像一位自驅(qū)的分析師,隨身攜帶瑞士軍刀,而且知道什么時候該用哪一把刀。

? 視覺推理

o3會帶著真實語境去深度解析圖像。其他模型也許只會說「這是一幅描繪女性的畫」,而o3會放大畫角,讀出畫家簽名,查出畫作懸掛的博物館,并為你講述其所屬藝術(shù)流派的歷史。

o3的技術(shù)創(chuàng)新

性能大幅躍升絕非偶然。OpenAI團(tuán)隊通過多項突破,才拿出了如此漂亮的成績單:

? 擴展強化學(xué)習(xí)

OpenAI發(fā)現(xiàn),只要在強化學(xué)習(xí)階段提升算力投入,模型效果就能顯著提升,這與GPT系列在監(jiān)督預(yù)訓(xùn)練里的「越算越強」規(guī)律如出一轍。不同的是,此時的o3并非優(yōu)化「下一詞預(yù)測」,而是通過最大化強化學(xué)習(xí)獎勵來學(xué)習(xí),且常在工具增強環(huán)境中訓(xùn)練。

實質(zhì)上,OpenAI把強化學(xué)習(xí)當(dāng)成了「放大版預(yù)訓(xùn)練」:訓(xùn)練更久、用更多算力,結(jié)果也更好。由此解鎖了長期規(guī)劃與序列推理等能力,例如競技編程、多步數(shù)學(xué)證明。再配合工具調(diào)用,性能增益更加明顯。

? 動態(tài)視覺推理

o3在視覺推理上同樣大幅躍進(jìn)。它不僅能理解圖片,還把圖像直接納入推理循環(huán)——解釋、操作、反復(fù)查看都不在話下。因而在科學(xué)圖表、數(shù)學(xué)示意圖,甚至通過照片排定日程等任務(wù)上表現(xiàn)突出。

核心做法是:在整個推理過程中始終保留原圖。

與傳統(tǒng)「生成文本描述后就丟圖」的做法不同,o3可借助工具隨時放大、旋轉(zhuǎn)、重看圖像任意區(qū)域,使推理更靈活,也能處理更凌亂的視覺輸入,如模糊白板、手繪草圖或會議日程照片。

舉個例子,OpenAI讓o3讀取一張低清晰度的演出排期照片,并規(guī)劃一份在每場活動之間留出10分鐘休息的行程——既要解析視覺布局,又得實時應(yīng)用約束條件。

打開網(wǎng)易新聞 查看精彩圖片

比如,給o1看一幅粗糙草圖,問「這將繪制哪種分形?」——o1答錯了;而o3直接命中了「龍形曲線」。

雖然只是小測試,但結(jié)果令人驚喜,因為我們并未提供太多線索。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

? 更優(yōu)成本效率

更令人意外的是,o3 的性價比也更高:在相同推理成本下,它交出了更好的成績。這或許得益于架構(gòu)級優(yōu)化,提高了 Token 吞吐量并降低了延遲。

自 Deepseek?R1以ChatGPT僅幾分之一的成本取得高性能以來,成本一直是熱門話題,而 o3 的表現(xiàn)顯然再次推高了業(yè)界預(yù)期。

打開網(wǎng)易新聞 查看精彩圖片

o4?mini

小巧、敏銳,卻實力驚人

o4?mini是OpenAI o系列推理模型的最新成員。

它針對速度、低成本以及工具增強推理能力進(jìn)行了優(yōu)化,提供200 000 Token的上下文窗口,并可輸出最多100000個Token,性能與o3、o1相當(dāng)。

在工具層面,o4?mini兼容Python執(zhí)行、網(wǎng)頁瀏覽和圖像輸入,可接入OpenAI的標(biāo)準(zhǔn)接口(包括 Chat Completions 和 Responses)。支持流式輸出、函數(shù)調(diào)用及結(jié)構(gòu)化輸出,但暫不支持微調(diào)和嵌入(Embeddings)。

o4?mini兼顧「量」和「質(zhì)」:面向普通用戶的每日消息上限達(dá)150條,而o3的上限是每周50條;在數(shù)學(xué)、編程和高視覺負(fù)載任務(wù)上,它以更快速度、極低成本,達(dá)到接近o3的性能。

雖然o3仍然是OpenAI最強的推理模型,但o4?mini可以使用十分之一不到的費用獲得o3大部分的性能。

o4?mini的優(yōu)勢

? 體積雖小,威力十足

要分析海量數(shù)據(jù),或匯總凌亂的研究表格?o4?mini輕松應(yīng)對——篩選洞見、編寫結(jié)構(gòu)化查詢語言(SQL)、檢索數(shù)據(jù),并將結(jié)果繪制成可交互圖表。

o3也許要十幾步推理、付出不菲的token成本,而o4?mini直截了當(dāng),給你既簡潔又合理的答案。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

? 工具齊全,算力更省

o4?mini提供與o3同級別的完整工具箱,包括Python、網(wǎng)頁瀏覽、圖像分析與生成等。

生成分析報告時,它可以一次完成:拉取CSV,用Python清洗并制圖,上網(wǎng)查找行業(yè)宏觀數(shù)據(jù)進(jìn)行對比,最后輸出Markdown報告;整個過程無需承擔(dān)o3的計算開銷。

o4?mini與o4?mini?high

打開ChatGPT應(yīng)用,你會發(fā)現(xiàn)有o4?mini和o4?mini?high兩種選擇。

顧名思義,o4?mini?high就是通過更多推理算力的投入,來換取更佳表現(xiàn)。

這意味著o4?mini?high相比于o4?mini:

  • 會在內(nèi)部花費更多時間處理每個提示詞;

  • 通常能生成更高質(zhì)量的輸出,尤其是多步任務(wù);

  • 但響應(yīng)速度更慢,且可能消耗更多Token。

如果你更看重速度,o4?mini或許更合適。若任務(wù)需要復(fù)雜推理(尤其涉及代碼或視覺輸入)、更長上下文,或?qū)纫髽O高,那么o4?mini?high更有可能給出更好的結(jié)果。

實測表現(xiàn)

接下來,對o4?mini分別在數(shù)學(xué)和編碼場景下進(jìn)行測試。

? 數(shù)學(xué)

首先,給它一道看似簡單、卻常常難住語言模型的計算題。

目的不是測它的基礎(chǔ)算術(shù),而是想看看它會如何解題:一步步推理,還是調(diào)用像計算器這樣的工具。

打開網(wǎng)易新聞 查看精彩圖片

第一次回答錯了。于是,直接提醒它要使用計算器。

第二次雖然算對了,但仍有兩個問題:

  • 它把答案稱為「約等于」,可這道減法題根本不用任何估算。

  • 從推理過程能看出它并未真正調(diào)用計算器,盡管輸出里寫著「計算器顯示」,這與實際計算方式不符。更離譜的是,它還去搜了網(wǎng)頁,而這種基礎(chǔ)題完全無需聯(lián)網(wǎng)查詢。

打開網(wǎng)易新聞 查看精彩圖片

隨后又給了它一道更有挑戰(zhàn)性的數(shù)學(xué)題,這回表現(xiàn)就穩(wěn)多了。

模型反應(yīng)迅速,用一小段Python腳本就解出了答案,而且還能在思維鏈里直接看到代碼。能把代碼公開為推理過程的一部分,確實相當(dāng)實用。

打開網(wǎng)易新聞 查看精彩圖片

? 生成p5.js游戲

在這個測試中,選用算力更高的o4?mini?high。

提示詞:給我做一款引人入勝的無盡跑酷游戲。關(guān)鍵操作說明顯示在屏幕上。p5.js場景,不要HTML。我喜歡像素風(fēng)恐龍和有趣的背景。

第一次生成的結(jié)果:

打開網(wǎng)易新聞 查看精彩圖片

有些地方我想調(diào)整,于是再次進(jìn)行提示:

  • 畫一只更像樣的恐龍——那東西一點也不像恐龍。

  • 讓玩家按下任意鍵再開始游戲——不要一啟動就自動開始;同時確保所有操作說明仍然顯示在屏幕上。

  • 游戲結(jié)束后,讓玩家可以重新嘗試。

第二次生成的結(jié)果:

打開網(wǎng)易新聞 查看精彩圖片

這次好多了,但這只「恐龍」看起來還是像一臺老式電影攝像機。

GPT?4.1

為精準(zhǔn)而生,不為「氛圍」服務(wù)

目前GPT?4.1只通過API向開發(fā)者開放,目標(biāo)是以毫不妥協(xié)的精準(zhǔn)度執(zhí)行細(xì)致入微的指令。

它沒有4.5等前輩那種「夢幻」氣質(zhì),卻更加結(jié)構(gòu)化、可靠且一致??梢园阉?dāng)作OpenAI面向特定開發(fā)任務(wù)的高負(fù)荷「勞?!梗前l(fā)散創(chuàng)意的靈感源泉。

GPT?4.1的優(yōu)勢

? 遵循復(fù)雜指令

GPT?4.1處理任務(wù)就像經(jīng)驗老到的領(lǐng)航員。

比如你正在寫一個食譜生成器,并且把所有的要求都寫在了一個提示詞里——以Markdown輸出、避開特定話題、按指定順序列出烹飪步驟,并附上鈉含量等關(guān)鍵指標(biāo)。

舊版模型可能會漏掉步驟或亂了順序,而4.1會嚴(yán)格遵照你的路線,哪怕十分漫長、全是彎彎繞繞。

這帶來了兩大好處:寫提示詞的時間更短,處理模型輸出的時間也更短。

? 記憶力驚人

上下文窗口從128000個token擴大到1000000個token,比GPT?4o足足多出了8倍。

你只需一次性設(shè)定語氣或結(jié)構(gòu),它便能在多輪對話中持續(xù)遵循,無需每次從頭設(shè)置。

這讓很多實際場景變得可行:一次性處理完整日志、為代碼倉庫建索引、順暢運行多文檔法律流程,或分析長篇內(nèi)容,全程無需分塊或摘要。

? 結(jié)構(gòu)化輸出

GPT?4.1就像自駕游里那個「只要路線明確就特別好相處」的朋友。給它清晰的行程表,它就執(zhí)行得又準(zhǔn)又快。

可如果拋給它「氛圍」式的提示詞,比如「能不能讓這個食譜App像走進(jìn)一家溫馨的地下酒吧?」,它可能立刻就想回家。

GPT?4.1、GPT-4.1 mini和GPT-4.1 nano

如果你想在編碼、指令遵循以及長上下文任務(wù)上獲得最優(yōu)綜合表現(xiàn),就選GPT?4.1。它能勝任復(fù)雜的編碼工作流,也能在單條提示詞中處理大體量文檔。

GPT?4.1 mini屬于中端選項,延遲和成本更低,卻幾乎具備與完整版相同的能力。在多項基準(zhǔn)(包括指令遵循和圖像推理)中,它能追平甚至超越GPT?4o。

GPT?4.1 nano是系列中體積最小、速度最快、成本最低的模型(0.1美元/百萬Token),面向自動補全、分類,以及從長文檔中抽取信息等任務(wù)。雖然它的推理和規(guī)劃能力不如更大的模型,但對于某些任務(wù)來說,這已經(jīng)足夠用了。

與完整版的GPT?4.1一樣,mini和nano都支持100萬Token的上下文窗口。

對比競品的表現(xiàn)

? GPT-4.1 vs Claude 3.7 Sonnet

根據(jù)測試,在代碼的優(yōu)雅度和結(jié)構(gòu)性方面,Claude 3.7 Sonnet仍是首選,尤其體現(xiàn)在整體風(fēng)格一致性和用戶界面表現(xiàn)上。

不過,只要提示詞范圍清晰且具體,4.1在執(zhí)行指令能力上已大幅拉近差距。

? o4?mini vs GPT?3.5

就目前觀察,o4?mini正逐漸成為開發(fā)者在有限預(yù)算下追求速度、可靠性與視覺處理能力時的「平價首選」。而2022年11月發(fā)布的GPT?3.5,如今已經(jīng)顯得有些「過氣」了。

參考資料:

https://every.to/context-window/vibe-check-openai-s-o3-gpt-4-1-and-o4-mini

https://www.datacamp.com/blog/o4-mini

https://www.datacamp.com/blog/o3-openai

https://www.datacamp.com/blog/gpt-4-1

打開網(wǎng)易新聞 查看精彩圖片