(來源:MIT News)
打開網(wǎng)易新聞 查看精彩圖片
(來源:MIT News)

先看一個(gè)案例。有一家咖啡公司正在優(yōu)化自身的供應(yīng)鏈,這家公司需要從三家供應(yīng)商采購咖啡豆,在兩座烘焙廠加工成深度烘焙或淺度烘焙,然后再把烘焙好的咖啡配送到三個(gè)零售點(diǎn)。不同供應(yīng)商的固定產(chǎn)能存在差異,而且烘焙成本和運(yùn)輸成本也會(huì)因地點(diǎn)不同而有所變化。

面對即將到來的銷售旺季,公司需要在滿足預(yù)計(jì) 23% 需求增長的前提下,找到最省錢的運(yùn)營方案。

這時(shí)候直接問 ChatGPT 能解決問題嗎?雖然這樣的大語言模型在文本處理方面表現(xiàn)出色,但當(dāng)遇到需要精確計(jì)算的復(fù)雜規(guī)劃問題時(shí),它們往往力不從心,給出的方案可能漏洞百出。

推理模型或許可以解決這類供應(yīng)鏈優(yōu)化問題,但實(shí)際應(yīng)用中也存在幾個(gè)不足之處,比如難以處理復(fù)雜約束條件、應(yīng)對問題變化的適應(yīng)性欠佳,計(jì)算效率低,難以找到最優(yōu)解。

對此,麻省理工學(xué)院的科研團(tuán)隊(duì)獨(dú)辟蹊徑,他們沒有選擇改造大語言模型本身,而是開發(fā)了一個(gè)“智能規(guī)劃助手”框架。

這個(gè)框架的工作原理非常巧妙,它先引導(dǎo)大語言模型像經(jīng)驗(yàn)豐富的“項(xiàng)目經(jīng)理”那樣,把復(fù)雜問題拆解成原料采購、生產(chǎn)加工、物流配送等多個(gè)模塊;然后自動(dòng)調(diào)用專業(yè)的數(shù)學(xué)優(yōu)化求解器,精確計(jì)算出每個(gè)環(huán)節(jié)的最優(yōu)解。

用戶只需要用日常語言描述問題即可,比如“用最省錢的方式把咖啡從產(chǎn)地送到門店”,完全不需要學(xué)習(xí)復(fù)雜的建模語言或提供大量示例。

這套系統(tǒng)會(huì)將用戶的文本描述編碼成優(yōu)化求解器可解析處理的格式,而這個(gè)求解器就是專門為高效解決棘手的規(guī)劃難題而設(shè)計(jì)的。

在整個(gè)問題轉(zhuǎn)化過程中,大語言模型會(huì)像“校對員”一樣進(jìn)行復(fù)查。首先確認(rèn)是否準(zhǔn)確理解了用戶需求,然后驗(yàn)證數(shù)學(xué)表達(dá)是否正確,最后評估解決方案是否可行。比如,發(fā)現(xiàn)烘焙廠的產(chǎn)能計(jì)算有誤,它會(huì)自動(dòng)調(diào)整參數(shù)重新計(jì)算,而不是給出一個(gè)超產(chǎn)能的方案。

研究團(tuán)隊(duì)用九類復(fù)雜場景測試該框架,比如優(yōu)化倉庫機(jī)器人任務(wù)路徑,其成功率達(dá)到了85%,而最佳基線的成功率僅為 39%。研究人員表示,這套系統(tǒng)(多功能框架)可廣泛應(yīng)用于多步驟規(guī)劃場景,包括航空公司排班、工廠設(shè)備調(diào)度等。

“我們的框架就像是規(guī)劃問題的智能顧問,既懂行業(yè)術(shù)語又能做精密計(jì)算,即使面對復(fù)雜規(guī)則或特殊需求,也能找出滿足所有條件的最優(yōu)方案?!?麻省理工學(xué)院信息與決策系統(tǒng)實(shí)驗(yàn)室(LIDS)的研究生、該研究論文的主要作者 Yilun Hao 說道。

這項(xiàng)研究成果將在國際學(xué)習(xí)表征會(huì)議上發(fā)表。研究論文的共同作者還有麻省理工學(xué)院 - IBM 沃森人工智能實(shí)驗(yàn)室的研究科學(xué)家 Yang Zhang,以及麻省理工學(xué)院航空航天學(xué)副教授兼 LIDS 首席研究員范楚楚。另外,這項(xiàng)研究工作部分由海軍研究辦公室和麻省理工學(xué)院 - IBM 沃森人工智能實(shí)驗(yàn)室資助。

打開網(wǎng)易新聞 查看精彩圖片

優(yōu)化算法“從入門到精通”

在現(xiàn)實(shí)世界中,許多關(guān)鍵決策都涉及海量變量的復(fù)雜組合。比如,航空公司如何安排上千架飛機(jī)的航線,物流公司怎樣規(guī)劃數(shù)萬件包裹的配送路線等等。這些問題的共同點(diǎn)是:每個(gè)選擇都可能會(huì)影響整體效率,而人工計(jì)算最優(yōu)解幾乎不可能。

一直以來,范楚楚和團(tuán)隊(duì)專注研究的組合優(yōu)化算法,破解這類包含海量關(guān)聯(lián)變量的復(fù)雜決策問題。

想象一下,如果一個(gè)供應(yīng)鏈問題可能涉及十余個(gè)供應(yīng)商、數(shù)個(gè)工廠、數(shù)十個(gè)倉庫,每個(gè)環(huán)節(jié)都有不同的成本、產(chǎn)能限制,那么可能的組合方案會(huì)達(dá)到天文數(shù)字。

人類面對這類問題時(shí),通常會(huì)先縮小范圍(比如排除明顯不劃算的選項(xiàng)),再在剩余方案中尋找最優(yōu)解。

研究團(tuán)隊(duì)開發(fā)的算法求解器也遵循這個(gè)思路,但能處理遠(yuǎn)超人類計(jì)算能力的超復(fù)雜問題。比如在數(shù)秒內(nèi)評估數(shù)百萬種可能性,并精準(zhǔn)鎖定成本最低、效率最高的方案。

不過,這類專業(yè)求解器也存在一個(gè)明顯短板,即學(xué)習(xí)門檻較高,通常只有專家才能駕馭。

“我們的設(shè)想是,讓大語言模型化身普通用戶的‘翻譯官’,成為使用這類專業(yè)求解器的橋梁。在實(shí)驗(yàn)室里,我們會(huì)把領(lǐng)域?qū)<姨岢龅膯栴}轉(zhuǎn)化為求解器能處理的格式,那我們能不能教會(huì)大語言模型做同樣的事呢?”范楚楚說道。

于是,研究人員開發(fā)了這種“基于大語言模型的形式化編程(LLMFP)”框架,用戶只需提供問題的自然語言描述、任務(wù)背景信息以及目標(biāo)查詢即可。

緊接著,LLMFP 會(huì)促使大語言模型對問題進(jìn)行分析,確定構(gòu)成最佳解決方案的決策變量關(guān)鍵約束

在將信息編碼為優(yōu)化問題的數(shù)學(xué)公式之前,LLMFP 會(huì)要求大語言模型詳細(xì)說明每個(gè)變量的要求。它會(huì)編寫代碼對問題進(jìn)行編碼,并調(diào)用額外的優(yōu)化求解器,進(jìn)而得出理想的解決方案。

范楚楚打了個(gè)比方:“這和我們在麻省理工學(xué)院給本科生講授優(yōu)化問題的方式有些類似。所謂‘授人以魚不如授人以漁’,我們不只是傳授某一領(lǐng)域的知識,而是教他們方法?!?/p>

只要輸入正確,求解器就一定能給出正確答案;如果結(jié)果出錯(cuò),那么問題肯定出在轉(zhuǎn)化環(huán)節(jié)。

為確保找到可行方案,LLMFP 會(huì)進(jìn)行“自我檢查”:分析求解結(jié)果,修正轉(zhuǎn)化過程中的錯(cuò)誤步驟。通過自檢的方案,最終會(huì)以通俗易懂的自然語言呈現(xiàn)給用戶。

打開網(wǎng)易新聞 查看精彩圖片

完善方案

“這套自檢機(jī)制不僅能發(fā)現(xiàn)錯(cuò)誤,還能讓大語言模型自動(dòng)補(bǔ)全初次分析時(shí)遺漏的隱含約束條件?!盰ilun Hao 表示。

這種能力就像是一個(gè)經(jīng)驗(yàn)豐富的顧問,能夠注意到新手容易忽略的關(guān)鍵細(xì)節(jié)。比如,在優(yōu)化咖啡店供應(yīng)鏈時(shí),人類都知道咖啡店不可能運(yùn)送“負(fù)數(shù)”的烘焙咖啡豆,但大語言模型在初次分析時(shí)可能會(huì)忽略這個(gè)常識性的約束。

此時(shí),自檢環(huán)節(jié)就會(huì)及時(shí)標(biāo)記出這個(gè)邏輯漏洞,并指導(dǎo)模型進(jìn)行修正。這種自我完善的能力,使得系統(tǒng)可以不斷優(yōu)化自己的分析框架。

“更智能的是,大語言模型還能根據(jù)用戶偏好進(jìn)行調(diào)整?!狈冻a(bǔ)充說,“比如,當(dāng)模型了解到某位商務(wù)人士不愿意更改既定的差旅時(shí)間和預(yù)算時(shí),它就會(huì)像一位私人助理,優(yōu)先調(diào)整其他參數(shù)來滿足需求?!边@種靈活應(yīng)變的能力,讓系統(tǒng)能夠真正理解并尊重用戶的個(gè)性化需求。

在一系列測試中,他們的框架在使用多個(gè)大語言模型處理 9 個(gè)不同規(guī)劃問題時(shí),平均成功率達(dá)到83% - 87%。雖然部分基線模型在某些問題上表現(xiàn)更優(yōu),但 LLMFP 的總體成功率大約是基線技術(shù)的兩倍

與其他方法不同,LLMFP 無需特定領(lǐng)域的示例進(jìn)行訓(xùn)練,“開箱即用”也能快速找到規(guī)劃問題的最佳解決方案。除此之外,用戶可以通過調(diào)整輸入給大語言模型的提示,讓 LLMFP 適配不同的優(yōu)化求解器。

“大語言模型為我們打開了一扇門,讓普通人也能跨領(lǐng)域使用專業(yè)工具,以全新視角解決問題。” 范楚楚總結(jié)道。

未來,研究人員希望讓 LLMFP 能夠支持圖像輸入輔助描述規(guī)劃問題,這將有助于框架解決那些難以用自然語言完整表述的任務(wù)。

1.https://news.mit.edu/2025/researchers-teach-llms-to-solve-complex-planning-challenges-0402

2.https://arxiv.org/pdf/2410.12112