打開網(wǎng)易新聞 查看精彩圖片

新智元報道

編輯:桃子 好困

【新智元導讀】AI若能自主復現(xiàn)頂尖科研論文,未來科研將被掀翻天。OpenAI最新框架PaperBench正為此生,讓AI智能體從頭開始復現(xiàn)ICML 2024 20篇優(yōu)秀論文,只有Claude 3.5 Sonnet拔得頭籌,但仍無法超越ML博士水平。

AI智能體,能否復現(xiàn)頂會中重磅的AI研究?

今天,OpenAI團隊發(fā)布了全新框架PaperBench,便可評估AI智能體復現(xiàn)頂尖研究的基礎(chǔ)能力。

打開網(wǎng)易新聞 查看精彩圖片

論文地址:https://openai.com/index/paperbench/

要求是,AI智能體需從0開始復現(xiàn)20篇ICML 2024 Spotlight和Oral論文,包括理解論文核心文獻、開發(fā)可運行代碼庫,以及執(zhí)行實驗并驗證結(jié)果。

為了客觀評估AI成果,OpenAI聯(lián)手每篇ICML論文作者開發(fā)了「評估標準」,將每個復制任務(wù)層次化分解為具有明確評分標準的較小子任務(wù)。

總共,PaperBench包含8,316個可單獨評分的任務(wù)。

打開網(wǎng)易新聞 查看精彩圖片

結(jié)果發(fā)現(xiàn),只有Claude 3.5 Sonnet(New)拿下了最高分21.0%,o1-high得分13.2%,DeepSeek-R1是6%,GPT-4o是4.1%。

遺憾的是,即便是最領(lǐng)先的LLM,仍無法超越機器學習博士。

打開網(wǎng)易新聞 查看精彩圖片

目前,OpenAI將PaperBench的所有代碼開源。

打開網(wǎng)易新聞 查看精彩圖片

GitHub地址:https://github.com/openai/preparedness

AI挑戰(zhàn)復現(xiàn)ICML 2024大作

PaperBench的目標,直指AI智能體的科研潛力。

若要完整復現(xiàn)ICML 2024 20篇優(yōu)秀的論文,意味著AI不僅需要理解論文核心思想,還得自主開發(fā)代碼庫、運行實驗,甚至是排除故障。

要知道,這是一項連人類研究員需要好幾天,才能完成的高難度任務(wù)。

打開網(wǎng)易新聞 查看精彩圖片

這項研究的主要貢獻包括:

  • PaperBench:一個包含20篇ML研究論文和經(jīng)作者批準的評分標準的基準測試,以及使用基于LLM評估的自動評分工作流程。

  • PaperBench Code-Dev:基準測試的一個更輕量級的變體,放寬了PaperBench的一些要求,使設(shè)置和評估對更廣泛的社區(qū)更易于使用。

  • JudgeEval:一個包含人類評分提交結(jié)果的數(shù)據(jù)集,可用作開發(fā)和評估自動評估的輔助工具。

  • 在PaperBench上對SOTA模型的評估:對幾個前沿AI智能體執(zhí)行長周期任務(wù)和機器學習研發(fā)能力的綜合評估。

更重要的是,PaperBench不僅是一個學術(shù)實驗,它還與其他AI安全框架緊密關(guān)聯(lián)。

它可用作OpenAI的準備框架中的模型自主性度量、Anthropic負責任擴展政策中的自主能力指標,以及Google DeepMind的前沿安全框架中的機器學習研發(fā)評估工具。

PaperBench:20篇論文,8316個任務(wù)

如上所述,PaperBench選取了來自ICML 2024中20篇 Spotlight和Oral論文,主要覆蓋了12個主題。

其中包括,深度強化學習、魯棒性和概率方法。

而且,每篇論文都配備了詳細的評分標準,總計8,316個可單獨評估的評分項目。

這些標準均是由每篇論文原作者與OpenAI共同制定,確保評估過程中的準確性和權(quán)威性。

評分標準采用層次結(jié)構(gòu),將復雜的復現(xiàn)目標分解為細粒度子任務(wù)。

任務(wù)+復現(xiàn)

對于PaperBench中的每個樣本,AI智能體會收到論文和論文澄清說明的附錄。

候選智能體必須提交一個包含復現(xiàn)論文實證結(jié)果所需的所有代碼的代碼庫,而且代碼庫根目錄必須包含一個reproduce.sh文件,作為執(zhí)行所有必要代碼以復現(xiàn)論文結(jié)果的入口點。

當提交的reproduce.sh能夠在全新環(huán)境中成功復現(xiàn)論文中報告的實證結(jié)果時,AI智能體便成功完成復現(xiàn)任務(wù)。

樹級評分

在基準測試中,每篇論文都配有一個評分標準,明確規(guī)定了完整論文復制的評估要求。

評分標準被設(shè)置為一個要求層級結(jié)構(gòu),每個葉節(jié)點(leaf node)指定一個明確的通過/失敗標準(見圖2),且每個節(jié)點都根據(jù)其相對于同級節(jié)點的重要性被手動賦予了權(quán)重。

對于一個葉節(jié)點標準,評估者會判斷提交內(nèi)容是否滿足其要求,如果滿足則給予1分,否則給0分。

當所有葉節(jié)點都被評分后,父節(jié)點(parent node)的分數(shù)將等于其所有子節(jié)點分數(shù)的加權(quán)平均值。

這一計分過程會一直向上傳遞到樹的根節(jié)點(root),根節(jié)點的分數(shù)即被視為該提交的最終復制分數(shù)(Replication Score)。

換句話說,每個提交的評分是基于所有滿足的評分標準要求的權(quán)重調(diào)整后的比例,其中100%表示完美復制,即滿足了所有葉節(jié)點的要求。

目前,論文中主要評估指標是所有論文的平均復制分數(shù)。

打開網(wǎng)易新聞 查看精彩圖片

每個葉節(jié)點具有三種可能的需求類型之一,這決定了其評分方式。

  • 結(jié)果匹配(Result Match)葉節(jié)點評估已執(zhí)行的提交是否包含復制論文中特定結(jié)果的證據(jù)。

  • 執(zhí)行(Execution)葉節(jié)點評估運行reproduce.sh腳本時是否產(chǎn)生了某些特定的執(zhí)行結(jié)果。

  • 代碼開發(fā)(Code Development)葉節(jié)點評估候選者的源代碼是否包含某些需求的正確實現(xiàn)。


可以上網(wǎng),但不能查看原作者代碼庫

PaperBench設(shè)計為與智能體支持框架(agent scaffolds)無關(guān),因此研究團隊對智能體的運行環(huán)境沒有特定要求。然而,基準測試確實制定了一些規(guī)則來確保公平比較:

  • 智能體可以瀏覽互聯(lián)網(wǎng),但不得使用OpenAI提供的每篇論文黑名單中網(wǎng)站的資源。每篇論文的黑名單包括作者自己的代碼庫和任何其他在線復制實現(xiàn)。

  • 智能體可使用的資源,如運行時間和計算能力,不受任何限制。

  • 開發(fā)者應(yīng)為智能體提供必要的在線服務(wù)API密鑰(例如,用于下載數(shù)據(jù)集的HuggingFace憑證)。

對于實驗,OpenAI還構(gòu)建了一個簡單的后處理監(jiān)控工具,用于檢查智能體日志中是否出現(xiàn)黑名單URL,發(fā)現(xiàn)可疑情況后會提交給人工審核,以取消使用黑名單資源的任何提交資格。

LLM評判成本降至10美金,比專家更高效

面對如此復雜的任務(wù),人工評分顯然不現(xiàn)實。

一篇論文的復現(xiàn)嘗試,通常需要人類專家數(shù)十小時來評估。

為此,OpenAI團隊開發(fā)了一個基于大模型自動評判系統(tǒng),并推出了輔助工具JudgeEval,用來驗證自動評判者的表現(xiàn)。

對于給定的提交內(nèi)容,評判系統(tǒng)SimpleJudge會獨立地對評分標準中的每個葉節(jié)點進行評分。

針對特定葉節(jié)點,評判系統(tǒng)會接收論文的Markdown格式文本、完整的評分標準JSON文件、葉節(jié)點的具體要求和提交內(nèi)容作為提示詞。

如下圖5所示,對于PaperBench Code-Dev,每篇論文的成本降至約10美元,證明了比聘請專家進行人工評分更加經(jīng)濟且高效。

打開網(wǎng)易新聞 查看精彩圖片

Claude 3.5 Sonnet得分最高

實驗中,研究人員對GPT-4o、o1、o3-mini、DeepSeek-R1、Claude 3.5 Sonnet(New)和Gemini 2.0 Flash在所有20篇論文上進行了評估,每篇論文進行了3次運行。

而且,他們每個智能體設(shè)置了最長12小時的運行時限。

如下表4所示,展示了各模型的平均復現(xiàn)得分。

其中,Claude 3.5 Sonnet表現(xiàn)最出色,得分達到21.0%。OpenAI o1表現(xiàn)較弱,得分為13.2%,其他模型表現(xiàn)不佳,得分均低于10%。

打開網(wǎng)易新聞 查看精彩圖片

為了更好地理解智能體性能,研究人員手動檢查了幾個智能體的運行日志。

他們發(fā)現(xiàn),除了Claude 3.5 Sonnet外,所有模型都經(jīng)常提前結(jié)束任務(wù),聲稱它們要么已完成整個復現(xiàn)工作,要么遇到了無法解決的問題。

所有智能體都未能制定有效策略,考慮如何在有限時間內(nèi)最優(yōu)地復現(xiàn)論文。我們還觀察到o3-mini在工具使用方面經(jīng)常遇到困難。

這些失敗模式表明當前模型在執(zhí)行長期規(guī)劃任務(wù)方面存在弱點:盡管在制定和編寫多步驟計劃方面表現(xiàn)出充分的能力,但模型未能實際采取一系列行動來執(zhí)行這些計劃。

迭代智能體

鑒于模型往往無法充分利用可用的全部時間,研究人員還測試了BasicAgent的一個變體。

這個變體通過移除智能體提前結(jié)束任務(wù)的能力,強制其在全部可用時間內(nèi)持續(xù)運行,并使用經(jīng)過優(yōu)化的提示詞來鼓勵模型以逐步方式工作。

他們將這個智能體稱為IterativeAgent。

研究人員使用IterativeAgent對o1、o3-mini和Claude 3.5 Sonnet進行了測試,如下表5所示。

他們發(fā)現(xiàn)使用IterativeAgent后,o1和o3-mini的得分顯著提升。

值得注意的是,在使用BasicAgent時,Claude 3.5 Sonnet的表現(xiàn)優(yōu)于o1,但在使用IterativeAgent時,其表現(xiàn)卻不如o1。這表明為IterativeAgent優(yōu)化的提示詞,對OpenAI o系列模型有著不同程度的適用性。

打開網(wǎng)易新聞 查看精彩圖片

研究人員推斷,如果對BasicAgent進行類似修改,同樣防止其提前結(jié)束任務(wù),可能會使Claude 3.5 Sonnet的表現(xiàn)超過使用IterativeAgent的o1。

人類拿下41.4%

此外,研究人員還招募了8名目前正在攻讀/已完成ML博士學位的參與者來挑戰(zhàn)3篇論文的子集。

這里,他們采用了AI智能體類似的條件下評估參與者。

參與者會拿到PDF和Markdown格式的論文,以及論文的附錄和盡可能接近用于AI智能體的指令,并可使用單個英偉達A10 GPU。

參與者兼職工作,有四周的時間窗口來取得盡可能多的進展。

打開網(wǎng)易新聞 查看精彩圖片

另外,團隊對使用IterativeAgent的o1進行了36小時的延長運行,每小時保存快照,并對1、3、6、12和36小時時拍攝的快照進行評分。

如圖3所示,比較了o1的這次36小時延長運行與人類隨時間的表現(xiàn)。

研究觀察到,o1在復現(xiàn)嘗試的早期階段最初優(yōu)于人類基準,但在24小時后,人類開始超過AI智能體。智能體最初優(yōu)于人類但在更長時間跨度內(nèi)落后的趨勢與先前結(jié)果一致。

ML博士在48小時內(nèi)(3次嘗試取最佳)拿下了41.4%高分,而統(tǒng)一子集上,o1僅為26.6%分。

這表明,與人類專家相比,AI盡管進步顯著但仍有差距。

此外,研究人員還推出了一個輕量級變體PaperBench Code-Dev,在這個版本中,o1的得分飆升至43.4%,顯示出AI在簡化任務(wù)上的潛力。

打開網(wǎng)易新聞 查看精彩圖片

結(jié)論

21%得分或許只是一個開始。

PaperBench不僅揭示了AI智能體在科研中的潛力,也暴露它們在長期規(guī)劃任務(wù)中的局限性。下一步,隨著模型能力提升,它們能夠接近甚至超越41.4%人類基準?

參考資料:

https://openai.com/index/paperbench/