打開網(wǎng)易新聞 查看精彩圖片

新智元報道

編輯:英智

【新智元導讀】采樣多就一定準嗎?研究人員用實驗告訴你:是的,而且超乎想象!基于采樣的搜索不僅能在并行處理中大展身手,還通過隱式擴展讓驗證更精準。

先讓模型生成多個候選答案,再通過自我驗證挑出「真金」。

基于采樣的搜索在許多推理任務(wù)中表現(xiàn)優(yōu)異,可關(guān)于它的擴展趨勢,還有許多未解之謎。

隨著采樣數(shù)量的增加,模型的推理性能能否繼續(xù)提升?這種簡單的搜索范式能在多大程度上擴展?

來自谷歌和伯克利的華人研究員發(fā)現(xiàn),隨著采樣數(shù)量和驗證強度的增加,模型的推理性能有顯著的提升。

打開網(wǎng)易新聞 查看精彩圖片

論文鏈接:https://arxiv.org/abs/2502.01839

增加測試時計算的方法有很多。有些是通過強化學習,隱式地鼓勵模型生成更長、更詳細的回答;還有些是通過巧妙的提示,讓模型更準確地思考。

在眾多方法中,基于采樣的搜索策略顯得格外突出,生成多個候選答案,再從中挑選出最佳的那個。

這種方法可以和其他策略搭配使用,還特別適合并行處理。

打開網(wǎng)易新聞 查看精彩圖片

通過有效的自我驗證,簡單地擴展基于采樣的搜索就足以在推理和數(shù)學基準測試,以及伯克利數(shù)學數(shù)據(jù)集上獲得最先進的性能。

打開網(wǎng)易新聞 查看精彩圖片

表中展示了Gemini v1.5 Pro模型在每個問題僅嘗試一個解決方案(Pass@1)、嘗試200個解決方案并選擇最常見的最終答案(Consistency@200)以及在基于采樣的搜索中嘗試200個解決方案,并根據(jù)正確性評分選擇得分最高的答案(Verification@200)時的準確性。

在基于采樣的搜索(Verification@200)中,Gemini v1.5超越了o1-Preview。

基于采樣的搜索

基于采樣的搜索是怎么運作的呢?

簡單來說,就是模型先通過隨機采樣的方式,生成一堆候選答案。

然后,模型再對這些候選答案進行自我驗證,判斷哪個答案最靠譜。

具體的實現(xiàn)過程可以分為幾個關(guān)鍵步驟。首先是生成候選答案階段,LLM會根據(jù)給定的問題,按照一定的溫度參數(shù)(=1.5),并行生成個候選答案。

這個溫度參數(shù)就像是調(diào)節(jié)模型創(chuàng)造力的旋鈕,數(shù)值越大,生成的答案就越多樣化,但也可能更偏離正確答案。

數(shù)值越小,答案就越保守,可能會錯過一些有創(chuàng)意的解法。

打開網(wǎng)易新聞 查看精彩圖片

接下來是驗證候選答案階段。模型會為每個候選答案生成個二進制的驗證分數(shù),以此來判斷答案的正確性

在這個過程中,模型會把答案改寫為定理、引理和證明的形式,就像我們在數(shù)學證明中那樣,一步一步嚴謹?shù)貦z查答案是否合理。

要是遇到幾個候選答案得分很接近的情況,模型會把這些答案兩兩比較,每次比較都會重復多次(=100次),最后選出獲勝次數(shù)最多的答案作為最終輸出。

擴展趨勢

研究人員在探索基于采樣的搜索的擴展趨勢時,發(fā)現(xiàn)了一些有趣的現(xiàn)象。

他們通過實驗,觀察隨著搜索,也就是采樣的數(shù)量和驗證次數(shù)這兩個關(guān)鍵因素的變化,模型的推理性能會發(fā)生什么變化。

從實驗結(jié)果的熱圖中可以看出,當搜索和驗證同時擴展時,模型的性能提升最為明顯。

打開網(wǎng)易新聞 查看精彩圖片

在一些基準測試中,比如AIME,即使測試時計算擴展到了自一致性方法性能飽和的程度,基于采樣的搜索的推理性能仍然在持續(xù)提高。

在AIME基準測試中,基于采樣的搜索的擴展趨勢最為顯著。

隨著采樣數(shù)量的增加,模型就能更大概率地找到正確答案。

而且,即使一致性方法(Consistency@k )在處理這些難題時已經(jīng)達到了極限,基于采樣的搜索(Verification@k )仍然能通過不斷擴展驗證能力,挖掘出那些隱藏在長尾中的正確答案。

研究人員還發(fā)現(xiàn)了一個很神奇的現(xiàn)象:隱式擴展。

按照常規(guī)想法,采樣的答案越多,驗證器要處理的信息就越多,驗證的準確性應(yīng)該會下降。但實際情況卻恰恰相反!

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

當模型生成的答案數(shù)量增加時,驗證的準確性也跟著提高了。這是為什么呢?

原來,寫得好的答案更容易被驗證,而增加采樣數(shù)量就像是擴大了答案的「海選范圍」,讓更多高質(zhì)量的答案有機會被選出來。

在下圖中,將驗證嘗試次數(shù)固定為50后,Verification@k的擴展超越了Consistency@k的飽和點。

在AIME基準測試里,Consistency@k趨于平穩(wěn),Verification@k卻呈冪律擴展。在AIME上,Consistency@50和 Consistency@10,000準確率相同。

打開網(wǎng)易新聞 查看精彩圖片

2024年AIME考試第二場第11題,Gemini v1.5模型從200個隨機采樣解決方案中,難以選定正確答案。

Consistency返回錯誤答案1,且該答案在超一半的響應(yīng)中出現(xiàn),而Verification成功從響應(yīng)分布長尾中識別出正確答案601,并對1和601分別給出了≤36%和98%的分數(shù)。

打開網(wǎng)易新聞 查看精彩圖片

擴展驗證能力是推動搜索改進的關(guān)鍵,可以區(qū)分不同置信度的答案。

驗證能有效利用模型響應(yīng)分布長尾,表明Pass@k應(yīng)是搜索應(yīng)用的關(guān)鍵性能指標,而現(xiàn)有針對Pass@1優(yōu)化的訓練后技術(shù)(如RLHF),可能犧牲Pass@k,抑制搜索能力。

有效自我驗證:提升推理的法寶

研究人員還總結(jié)出了兩個提升LLM自我驗證能力的重要原則。

第一個原則是對比答案以定位錯誤。

LLM在識別錯誤和幻覺方面一直不太擅長,就像一個視力不太好的人,很難發(fā)現(xiàn)遠處的小錯誤。但是,如果把不同的候選答案放在一起比較,模型就能更容易地發(fā)現(xiàn)錯誤的位置。

這種比較的方法,其實也是隱式擴展的一種體現(xiàn),通過提供更多的對比信息,幫助模型更好地判斷答案的正確性。

第二個原則是根據(jù)輸出風格適用性改寫答案。不同的任務(wù)需要不同風格的答案。

在生成答案時,思維鏈的方式很有效,它能幫助模型理清思路,找到正確的方向。

但這種方式生成的答案往往比較冗長復雜,驗證起來難度較大。

相反,嚴謹、分層和模塊化的寫作風格雖然在生成答案時可能不太靈活,但在驗證時卻更容易被模型理解和判斷。

所以,研究人員建議在驗證答案時,先把答案改寫成更規(guī)范的形式,比如像數(shù)學證明一樣,有定理、引理和證明過程,這樣模型就能更輕松地檢查答案是否正確了。

為了驗證這兩個原則的有效性,研究人員還進行了消融研究。他們分別去掉比較答案和改寫答案這兩個操作,看看會對模型的性能產(chǎn)生什么影響。

打開網(wǎng)易新聞 查看精彩圖片

結(jié)果發(fā)現(xiàn),去掉比較答案的操作后,模型在一些基準測試中的性能明顯下降。去掉改寫答案的操作后,驗證的準確性也受到了很大影響。

打開網(wǎng)易新聞 查看精彩圖片

這充分說明了這兩個原則對于提升模型自我驗證能力的重要性。

額外實驗,探索更多可能

研究人員還進行了一些額外的實驗,為我們揭示了更多有趣的發(fā)現(xiàn)。

在對較小模型的研究中,他們發(fā)現(xiàn)基于采樣的搜索同樣能為這些「小個子」模型帶來顯著的性能提升。

打開網(wǎng)易新聞 查看精彩圖片

以Gemini v1.5 Flash模型為例,它的推理成本比Gemini v1.5 Pro低很多,但通過基于采樣的搜索,它的性能得到了大幅提升。

即使是用Flash模型來輔助Pro模型進行驗證(Pro+Flash),也能取得不錯的效果,甚至在某些情況下,Pro+Flash Verification@200的性能超過了Pro Consistency@200。

研究人員還對LiveBench基準測試中的不同子任務(wù)進行了分析。

他們發(fā)現(xiàn),基于采樣的搜索在不同子任務(wù)上的表現(xiàn)各有差異。

打開網(wǎng)易新聞 查看精彩圖片

在AIME 2024、Web-of-Lies、Competition和Zebra Puzzle等任務(wù)上,Verification的提升效果非常明顯;但在LiveBench Math的Olympiad任務(wù)上,卻沒有看到明顯的提升。

這是因為Olympiad任務(wù)的問題設(shè)計比較特殊,它要求填寫預寫證明中的表達式選項,輸出特定的索引序列。

衡量模型的新驗證基準

前沿LLM雖然在解決問題方面表現(xiàn)得很厲害,但它們的開箱即用驗證能力卻有點拖后腿。

為了更準確地衡量這個問題,研究人員創(chuàng)建了一個新的驗證基準。

這個基準里包含了很多具有挑戰(zhàn)性的推理問題,每個問題都有一個正確答案和一個錯誤答案。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

基準測試主要關(guān)注兩個任務(wù):評分任務(wù)和比較任務(wù)。

在評分任務(wù)中,模型要判斷給定答案是否正確;在比較任務(wù)中,模型要從兩個答案中找出正確的那個。

這就好比讓模型當小老師,批改作業(yè)和比較不同學生的答案。

研究人員用這個基準測試了一些當前的模型,結(jié)果發(fā)現(xiàn)表現(xiàn)參差不齊。

打開網(wǎng)易新聞 查看精彩圖片

有些模型在驗證方面的表現(xiàn)甚至比隨機猜測好不了多少,這說明它們在識別錯誤答案和判斷答案正確性方面還有很大的提升空間。

基于采樣的搜索展現(xiàn)出了巨大的潛力。

它不僅簡單有效,而且具有很強的擴展性,能在各種推理任務(wù)中發(fā)揮重要作用。

參考資料:

https://x.com/ericzhao28/status/1901704344506192365

https://techcrunch.com/2025/03/19/researchers-say-theyve-discovered-a-new-method-of-scaling-up-ai-but-theres-reason-to-be-skeptical/

https://eric-zhao.com/blog/sampling

https://arxiv.org/abs/2502.01839