文章轉(zhuǎn)載自「海外獨角獸」。

2025 Q1 中美 AI 領(lǐng)域都相當(dāng)火熱: 催化了 的熱潮,頭部模型廠商連續(xù)發(fā)布 SOTA reasoning models,推出 deep research;Manus 的火爆又把 的討論帶到 AI 社區(qū)中心。本期內(nèi)容是我們對 2025 年第一季度的回顧以及對 AGI 競爭格局、roadmap 的再思考:

? 雖然過去 2 年模型格局、技術(shù)關(guān)鍵詞不斷變化,但 AGI 路線圖上只有智能提升是唯一主線,智能本身就是最大應(yīng)用,要圍繞智能本身去投資和思考。模型公司形成壁壘的關(guān)鍵在于成為 Cloud 或 OS,未來模型和產(chǎn)品邊界會逐漸模糊;

? 今天最大非共識是 pre-training 空間還非常大,只有 pre-training 才能涌現(xiàn)出新能力,決定模型內(nèi)在上限;

? Coding 的意義不僅僅在于編程,而是實現(xiàn) AGI 的最好環(huán)境,是模型的一只手,現(xiàn)實世界多數(shù)任務(wù)可用 Coding 表達(dá),模型通過生成并執(zhí)行代碼來實現(xiàn)對外部信息的采集、處理和反饋;

? ChatGPT 只是 AGI 的“前菜”,是 AGI 攀登的第一站,Agentic AI 才是更加關(guān)鍵的未來。Agent 落地最關(guān)鍵的三個能力是 long context reasoning、Tool-use、Instruction following;

? AGI 時代,組織和文化競爭力是僅次于算力的核心競爭力。

Founder Park 正在搭建開發(fā)者社群,邀請積極嘗試、測試新模型、新技術(shù)的開發(fā)者、創(chuàng)業(yè)者們加入,請掃碼詳細(xì)填寫你的產(chǎn)品/項目信息,通過審核后工作人員會拉你入群~

進群之后,你有機會得到:

  • 高濃度的主流模型(如 DeepSeek 等)開發(fā)交流;

  • 資源對接,與 API、云廠商、模型廠商直接交流反饋的機會;

  • 好用、有趣的產(chǎn)品/案例,F(xiàn)ounder Park 會主動做宣傳。

01重新重視 Pre-training

張小珺:Base model 的競爭結(jié)束了嗎?有觀點說“現(xiàn)階段放這么大精力關(guān)注模型沒有必要,還是應(yīng)該把時間投入到應(yīng)用上”,你怎么看?

Guangmi Li:最大非共識是 pre-training 空間還非常大,甚至可以說是剛開始,還會迎來新的能力涌現(xiàn)。我有很強的信心說 pre-training base model 的 scaling 遠(yuǎn)遠(yuǎn)沒有結(jié)束,下一代 SOTA 模型還是能顯著超過今天的 SOTA model,不管是 GPT-4.5、Grok-3、Sonnet 3.7,還是 Gemini 2.5 Pro。

之前說 pre-training 結(jié)束的共識,很大原因是 OpenAI 的 pre-training 進程變慢了,其實 Anthropic 和 xAI 的進步還挺快的。OpenAI 之前是領(lǐng)先者,領(lǐng)先者的表現(xiàn)就容易被認(rèn)為是正確的共識,但當(dāng)領(lǐng)先者不再領(lǐng)先,這個也就是非共識了。

要強調(diào)只有 pre-training 才能涌現(xiàn)出新能力,post training 和 RL 是不涌現(xiàn)新能力的,只是激發(fā)或加強能力。Pre-training 基本決定了模型內(nèi)在的上限,后面再怎么做 post training 和 RL 也只能做到 pre-training 的內(nèi)在上限,只有 pre-training 階段把 base model 能力往上提升才是最本質(zhì)的,不然在比較差的 base model 基礎(chǔ)上做強化學(xué)習(xí),就像小學(xué)生刷題,很容易飽和見頂,只有持續(xù) pre-training 才能把小學(xué)生本質(zhì)上變成初中生,O 系列就是刷題。

我們在里強調(diào)重視 RL 范式的時候提到,“pre-training 有 50% 概率結(jié)束了”,但今天所有人都聚焦在 RL、reasoning model 的時候,我認(rèn)為還是要重視 pre-training。

張小珺從外界看 OpenAI 好像沒有那么重視 pre-training 了,原因是什么?

Guangmi Li:可能不是不重視,從外部觀察,我感覺更多是戰(zhàn)略選擇和組織問題:

戰(zhàn)略選擇上,O 系列在 benchmark 上走的非???,O 系列 2 個月刷分的收益就比 pre-training 1-2 年進步得快,而且 ChatGPT 成長非常快,還在加速,ChatGPT 占據(jù)了管理層很大的精力。

組織問題上,外部視角是 OpenAI 的 pre-training 核心團隊一直挺動蕩的,最早是 Anthropic 的 Dario 帶走一批人員,ilya 又離開,CTO Mira 又帶走核心的 post training 團隊和最早 Infra 團隊的核心,原來 pre-training 的人就要不斷調(diào)到 post-training,團隊動蕩比較大。

張小珺:所以 OpenAI 不是 top down 不重視 pre-training 了,而是組織調(diào)整,顯得不那么重視 pre-training 了?

Guangmi Li:OpenAI 是一個自下而上的公司,做 pre-training 做得好的人走了,今天 Anthropic 和 xAI 的 pre-training 團隊比 OpenAI 要強。

張小珺:O 系列做得很快,但不一定能打開智能的天花板?為什么 pre-training 還要繼續(xù)?之前說過數(shù)據(jù)不是很夠用。

Guangmi Li:O 系列是加強智能,但能不能打開智能天花板,這個問題沒有標(biāo)準(zhǔn)答案。

2023 年我們就在提合成數(shù)據(jù),今天很少有人提了,但今天恰好是 RL 能產(chǎn)生更多合成數(shù)據(jù),尤其是高價值的 CoT 數(shù)據(jù),可以加到 pre-training 環(huán)節(jié)里,或者說從 pre-training 階段就做 RL,解決數(shù)據(jù)瓶頸問題。training 和 RL inference 融合挺難的,涉及訓(xùn)練框架的 Infra 問題,要求 GPU 里同時跑 RL inference 的 sampling 和 training,之前這兩者各是一套框架,今天如果要融合,對 Infra 的難度挺高,大家突破這個問題還是花了挺長時間的。

張小珺:外界認(rèn)為 pre-training 收益是放緩的,投入產(chǎn)出的 ROI 不明顯了,繼續(xù)投入 pre-training 還能帶來突破或能力涌現(xiàn)嗎?

Guangmi Li:我很期待新能力涌現(xiàn),比如 tool use,今天模型的 tool use,即用電腦工具的水平,還是我們爸媽用電腦的水平,后面可能很快到熟練程序員用電腦的水平,Agent 就可以在電腦和手機的數(shù)字環(huán)境下完成人類操作電腦的絕大部分行為,甚至操作你不知道怎么操作的工具。

絕大多數(shù)人用 Excel 公式的能力都不如 Agent,整個 Windows 系統(tǒng)、Office 套件里面累計有上百萬個功能點,這些 Agent 都可以非常熟練地調(diào)用。

Manus 非常依賴 tool use 能力。Manus 是 Anthropic tool use 能力的“ChatGPT 時刻”。Anthropic Claude 模型非常重視 tool use,做了幾百個 tool use 專門的訓(xùn)練,Anthropic 只專注在模型能力提升,不著急做上層產(chǎn)品。Manus 團隊對 Claude 模型理解是非常棒的,執(zhí)行力非常強,第一次讓外界感受到了 tool use 能力的 Magic moment,很像 OpenAI 當(dāng)時做 ChatGPT。很多 Magic moment 還是要靠模型內(nèi)化能力才能推動的,Pre-training 階段是最關(guān)鍵的。

智能無上限,一定會持續(xù)變的更聰明。每一年回看過去一年,智能技術(shù)變化其實非常大。

張小珺:Anthropic 的 tool use 能力的 ChatGPT moment 為什么不是 Anthropic 做的,而是 Manus 做的?

Guangmi Li:OpenAI、Anthropic 都沒有預(yù)想到 Agent 來的那么快,模型公司和云廠商都還沒有完全做好準(zhǔn)備。

張小珺:站在今天看,實現(xiàn) AGI 是更清晰了,還是變模糊了?

Guangmi Li:我對兩年內(nèi)實現(xiàn) AGI 有前所未有的信心,這是 100%的概率。

張小珺:為什么這么快?信心來源是什么?

Guangmi Li:離 AGI 越近,AGI 就沒有那么神秘。最重要的是想明白了:Coding 是實現(xiàn) AGI 最好的環(huán)境,Coding 意義不在于編程本身,而在于“環(huán)境”,現(xiàn)實世界的絕大多數(shù)任務(wù)都可以用 Coding 來表達(dá),Coding 可能是數(shù)字經(jīng)濟 GDP 活動最重要的環(huán)境。

構(gòu)建環(huán)境非常重要,AlphaGo 的棋盤就是環(huán)境,百度之前是通用搜索,整個網(wǎng)頁 index 就是環(huán)境,淘寶構(gòu)建了商品搜索的環(huán)境,攜程構(gòu)建了旅游產(chǎn)品搜索的環(huán)境,Boss 直聘構(gòu)建了工作搜索的環(huán)境。Coding 是很通用的一個環(huán)境。

大家覺得數(shù)字經(jīng)濟 GDP 和實體經(jīng)濟 GDP 未來占比會怎么樣?在沒有互聯(lián)網(wǎng)之前,100%都是實體經(jīng)濟,未來可能很極端。如果只看增量的部分,絕大部分都會是數(shù)字經(jīng)濟 GDP,這會是實體經(jīng)濟 GDP 增量的成千上萬倍。未來人類的經(jīng)濟活動絕大多數(shù)都是數(shù)字化的表達(dá),那最后都可以通過 Coding 表達(dá),Agent 可以調(diào)度物理世界的人和實體去完成很多事情,Coding 就是模型的一個手。

Manus 就給 Agent 搭了個虛擬電腦環(huán)境,Agent 來操作電腦的工具。如果 Agent 能操作電腦和手機上正常人能操作的 99%的任務(wù),而且操作的比人好,是不是就 AGI 了?我覺得這在 2 年內(nèi)一定會實現(xiàn)。

張小珺:怎么更好理解“Coding 是環(huán)境”,是“模型的一個手”?比如在 Anthropic 上是怎么體現(xiàn)的?

Guangmi Li:好的環(huán)境有兩個重要的特點:動態(tài)、可操作。要求環(huán)境不僅包含數(shù)據(jù)和硬規(guī)則,還允許模型“執(zhí)行”它的想法并獲得實時反饋。符合這個要求的環(huán)境主要就是 Coding、gaming、science 相關(guān)的,其中 Coding 是最通用的賽博世界環(huán)境。

“模型的一個手”類似人類通過手去操作物體、改變環(huán)境,模型通過生成并執(zhí)行代碼來實現(xiàn)對外部信息的采集、處理和反饋。

Anthropic 為模型設(shè)計了很多 tool use 腳手架放進環(huán)境里,幫助模型更好理解環(huán)境并且操作,比如 os world、computer use,包括把環(huán)境中的 RL synthetic data 喂回給 pre-training,都是比較重要的。

張小珺:現(xiàn)在哪家模型 Coding 做得最好?

Guangmi Li:現(xiàn)在每個模型公司都越來越重視 Coding 了,但我對 Anthropic 的信心也是前所未有的強,Anthropic 還能在 pre-training base model 取得顯著進步,實現(xiàn)下一代模型的 SOTA,繼續(xù)保持或加強 Coding 領(lǐng)先優(yōu)勢,Coding 也是 SOTA。

Cursor 現(xiàn)在是最火的獨立編程 IDE 工具,ARR 已經(jīng)超過 1.5 億美金了,年底可能 4-5 億美金,開發(fā)者可以在 Cursor 選模型,75% 開發(fā)者都是選 Sonnet,Sonnet 可以說是 Coding 默認(rèn)模型了,因此 Cursor 一個月要給 Sonnet 1000 多萬美金 Token 費用,大概是 OpenAI 的 4-5 倍。

張小珺:OpenAI 為什么沒有做好 Coding?

Guangmi Li:可能不是技術(shù)能力問題,以 OpenAI 的能力和認(rèn)知肯定也會很重視 Coding,但過去了一年還沒做好,我傾向是戰(zhàn)略選擇和組織問題。

做好 Coding,要么就是在 pre-training 階段的 Coding 數(shù)據(jù)上花時間花精力,把 Coding 實戰(zhàn)型的數(shù)據(jù)集做細(xì)致,有人兩年前就做到幾百個門類細(xì)分,有人現(xiàn)在也才幾十類細(xì)分;要么有全新的方法,比如 RL,這個還需要 Top-down 的戰(zhàn)略決定和組織能力。也可能是 OpenAI 的 Coding 現(xiàn)在還沒體現(xiàn)出來,未來可能會在某個時候發(fā)個大招。

Coding 是個$1T 級別的機會,只要 Anthropic 能在 Coding 持續(xù)領(lǐng)先,就有機會到三五千億美金級別,Cursor 也有機會到千億美金級別,Coding 一定會出來抖音、拼多多、微信級別的機會。

張小珺:模型公司怎么變成$1T 或者$10T ?

Guangmi Li:要在 AI for Science 領(lǐng)域?qū)崿F(xiàn)突破?,F(xiàn)在一個減肥藥都能每年賣 1000 億美金,未來攻克癌癥、治療所有疾病,那就是$10T 了,全人類在健康上的消費要比在今天手機上的消費大 10-100 倍的。

張小珺:Coding 是一種技術(shù)手段,最終 Coding 會成為最好的產(chǎn)品表達(dá)嗎?

Guangmi Li:Coding 是比搜索引擎和推薦引擎更重要的東西,信息流產(chǎn)品是推薦引擎的表達(dá)。編程本身是個高門檻、高動機用戶才能用好的產(chǎn)品形式,消費者產(chǎn)品要淡化 Coding 編程元素。

產(chǎn)品表達(dá)應(yīng)該是一種內(nèi)容或者交互形式。抖音不會說自己是推薦引擎產(chǎn)品,而是短視頻產(chǎn)品。把 Coding 當(dāng)成一個技術(shù)引擎比較好,最后的產(chǎn)品表達(dá)還沒有定義好。

最近 Notion 的首席設(shè)計師加入了 Cursor,挺期待 Cursor 在新的交互表達(dá)上能做出新東西的。

02ChatGPT 只是攀登 AGI 高山的第一站

張小珺:領(lǐng)先的模型公司在實現(xiàn) AGI 路線上有差異嗎?

Guangmi Li:OpenAI 和 Anthropic 是同宗同源,最開始路線是一樣的,但慢慢地在核心戰(zhàn)略 bet 或者路線已經(jīng)發(fā)生了分化。

OpenAI 現(xiàn)在核心 bet 是兩個,第一是希望通過 O 系列 RL 或者 reasoning model 路徑就實現(xiàn) AGI,第二是希望把 ChatGPT 做成 10 億活躍用戶的 killer-app。

Anthropic 核心在于專注 pre-training 一個很強的 base model, bet on Coding 和 Agentic。

OpenAI 和 Anthropic 的領(lǐng)導(dǎo)層關(guān)心的內(nèi)容不一樣。OpenAI 更關(guān)心 RL、reasoning model、O 系列,Anthropic 更關(guān)心 base model 和 Coding。OpenAI 重視 C 端市場,Anthropic 重視 B 端市場。OpenAI 是自下而上的組織文化,Anthropic 更加自上而下。

張小珺:為什么會有這樣的分化?

Guangmi Li:可能是 Anthropic 的 Dario 他們都是做 pre-training 出身的,所以對 pre-training 非常有信心,或者大家都有路徑依賴。

OpenAI 是 frontier team 做出了 O 系列,O 系列非常亮眼,froniter team 的老大 Mark Chen 現(xiàn)在成為了僅次于 Sam、Greg 的三號人物,所以給了 O 系列更多資源,加上 OpenAI pre-training 和 post training team 變動太大,O 系列優(yōu)先級肯定比原來的 pre-training team 要更高了。戰(zhàn)略選擇其實是不同組織能力的表達(dá)。

張小珺:O 系列能走到哪,O3、O4、O5 這么走下去,天花板有多高?

Guangmi Li:O 系列刷 benchmark 刷的特別快,但不確定夠不夠本質(zhì)。我不知道 reasoning 有沒有落地場景。Reasoning Model 主要表現(xiàn)是提升 Math 和 Coding,Math 沒落地場景,主要還是 Coding,但 Reasoning Model 提升的 Coding 不是實戰(zhàn)型的 Coding,還是競賽型的 Coding。Anthropic 做的還是實戰(zhàn)型的 Coding 更多一些。

張小珺:硅谷對不同的路線認(rèn)知有什么分歧嗎?

Guangmi Li:分歧非常大,背后問題的本質(zhì)是智能重要,還是流量重要。

OpenAI 有非常大的流量,Anthropic Claude 幾乎沒多少 C 端流量。這一點硅谷的分歧也非常大,硅谷很多 VC,比如 Sequoia US Roelof 和 Khosla Venture Vinod,覺得 OpenAI 應(yīng)該變成一個大型消費互聯(lián)網(wǎng)平臺公司,訓(xùn)練模型的資本效率很低。

我覺得他們是錯的,老牌投資人是喜歡經(jīng)典的商業(yè)模式,但今天 AI 商業(yè)模式都是很差的,討論不清楚,今天還不是討論商業(yè)模式的時候,太早期了。

我有點擔(dān)心 ,今天產(chǎn)品和流量沒那么重要,即便重要,也要在模型訓(xùn)練的優(yōu)先級之后。

大家認(rèn)知分歧非常大,每個人都有自己的信仰,也都有自己的 bias。我更相信 AGI 原教旨主義,智能最重要,再構(gòu)建一個 Google 除了賺錢外,意義并沒有那么大。今天是人類少有的一個可以去 push 智能的窗口,杠桿效應(yīng)非常強。在 AGI 的范式下,在研究驅(qū)動的范式下,資本家們很多判斷產(chǎn)品和商業(yè)模式的慣性有挺高概率是錯的。

張小珺:你說有點失望 Sam 竟然把 10 億用戶作為首要目標(biāo),而不是 AGI-first、Research-first、model training-first,去 push 智能的邊界?

Guangmi Li:今天還在智能很早期的階段,不能停下來。OpenAI 的杠桿效應(yīng)很大,幾千個人改變了幾十億人,不應(yīng)該把構(gòu)建新的互聯(lián)網(wǎng)平臺當(dāng)作最高目標(biāo),push 智能才是最高目標(biāo)。今天還有很多問題要解決,比如攻克癌癥,讓世界沒有疾病。

OpenAI 是有機會對人類幫助更大的。不應(yīng)該降低對科學(xué)的 vision,過早追求商業(yè)可能會錯過 AGI 科學(xué)的文藝復(fù)興。

張小珺:Anthropic 和 OpenAI 有不同的 bet,誰會是最后的贏家?

Guangmi Li:取決于智能的水平走到哪。

各家模型公司能否拉開顯著差異,最核心的是 base model 能否顯著領(lǐng)先其他人?如果智能往前走的很強,模型顯著領(lǐng)先,那就會有流量遷移,流量是沒有忠誠度的。

Google 在模型上無法顯著反超 OpenAI,Gemini 模型雖然好,但流量一直上不去,過去一兩年 Chat Bot 絕大部分流量還是去了 ChatGPT,本質(zhì)還是因為 ChatGPT base model 過去是有一定領(lǐng)先優(yōu)勢的,技術(shù)領(lǐng)先優(yōu)勢轉(zhuǎn)化成了流量優(yōu)勢。

Anthropic 的 Roadmap 很好,長期來看 Anthropic 可能是比 OpenAI 更有價值的公司。我有一定 bias,或者我比較偏 AGI 原教旨主義,我更關(guān)心誰更重視 pre-training,看誰能先出來大幅超過對方的 base model。Pre-training 一旦放松或者降低優(yōu)先級了,后面很難追,RL、reasoning model 其實容易追,一旦 Anthropic pre-training 做出來更強的 base model,OpenAI 再從 RL 或者 O 系列切回來是很難的。

從外部視角看,OpenAI 對 pre-training 的重視度是不夠的,過多精力花在 reasoning model 和 ChatGPT C 端的各種功能上面,這是不夠本質(zhì)。

大家的路線差異其實無關(guān)對錯,這兩家應(yīng)該都能實現(xiàn) AGI,大家都是去攀登珠穆朗瑪峰,AGI 科學(xué)探索每天都在突破邊界,每個團隊都要敢于 bet,把 bet 的東西 push 到極致就是了。

OpenAI 對行業(yè)貢獻是非常大的,雖然沒有開源,但指明了路線,一定要尊重和 value OpenAI 的貢獻。但這個領(lǐng)域競爭非常激烈,今天的差異化表面上是各家戰(zhàn)略選擇問題,其實回到本質(zhì)上,還是組織能力的表達(dá)。

張小珺:國內(nèi)有 DeepSeek 這樣 push 智能邊界的公司,而且是開源,其他公司還有必要訓(xùn)練自己的閉源模型嗎?

Guangmi Li:訓(xùn)練模型需要有很強的 training 能力,如果沒有,那看不到很多風(fēng)景,很多東西得自己做才知道。還有一條路線是從 post training 做起,然后做 mid training,最后再 per-training。還是要有比較強的 training tream,不然沒法向下改模型。長期來看,想做大的應(yīng)用公司是幾乎一定要做這些事情的。

張小珺:你提到智能還是在很早期階段,但有人覺得現(xiàn)在已經(jīng)很聰明夠用了,大家認(rèn)知差異原因是什么?

Guangmi Li:可能是想象力的局限,人類在沒有汽車之前,最多是想要一個更舒服更快的馬車,圍繞馬車做了很多工作,但福特 T 型生產(chǎn)線已經(jīng)滾滾而來,今天處在 T 型生產(chǎn)線大規(guī)模量產(chǎn)智能的前夜,后面人類就會發(fā)現(xiàn)竟然還可以坐飛機,可以更快。

張小珺:在現(xiàn)在這一波 AGI 的浪潮下,越是年輕人越愿意相信智能的邊界無限。

Guangmi Li:想象力可能和年齡有關(guān),隨著年齡越大,想象力反而會遞減。

張小珺:AGI Roadmap 是怎么樣的?

Guangmi Li:AGI 探索就像是爬一座科學(xué)的高山,最后誰能到珠穆朗瑪峰,要思考 AGI 登山的主線是什么,哪里是珠穆朗瑪峰。

打開網(wǎng)易新聞 查看精彩圖片

我最近腦子里反復(fù)想的就是:智能提升是唯一主線,智能本身就是最大應(yīng)用,要圍繞智能本身去投資和思考。

ChatGPT 走到 3.5,通用泛化性變強,解鎖了 Chat Bot 對話能力。Claude 走到 3.5,Sonnet 解鎖了 Coding 能力,跑出了 Cursor。今天大家在解鎖 Agent、Agentic,未來還有 Science、Robotics。

AGI 探索是攀登科學(xué)界最高的那座山,ChatGPT 只是這座高山山腳的第一站,后面還有很多個山頭:Coding、Coding Agent、General Agent、AI for Science、Robotics,這幾個關(guān)鍵詞都在登山的主線上,可能多模態(tài)、Online Learning、Multi-Agents 也大概率在主線上。

這樣能畫出來一條登山的路線圖,每個 milestone 都有代表性的名字,比如 GPT-3.5 或 GPT-4、ChatGPT、Claude Sonnet 3.5、OpenAI O 系列、Deep Research、Cursor、Devin、Manus 等等。

ChatGPT 或 Chat Bot 是個必然也是個偶然,但 ChatGPT 只是前菜,接下來 Agent 才是正餐,AI for Science 科學(xué)探索才是珠穆朗瑪峰,去真正攻克癌癥和人類幾乎所有疾病,創(chuàng)造全新的經(jīng)濟增長的最大驅(qū)動力,爸媽和長輩未來都愿意為健康和身體買單付費,這是消費的來源。

我在 Roadmap 里沒把 Sora 放進來,因為視頻生成在今天可能還不是主線,文生圖也不是主線,雖然文生圖也代表智能,但不是實現(xiàn)原教旨主義的智能。這些可能是 OpenAI 的煙霧彈。多模態(tài)理解是主線但研究上需要突破,突破的時間點不確定在哪個時間點,但感覺不用太久。

另外,站在用戶視角,智能涌現(xiàn)或登山就是一個個的 Magic moment,每爬升幾百米海拔,用戶就看到不同的風(fēng)景,用戶可感知差異的拉大就帶來巨大流量遷移和應(yīng)用爆發(fā)的機會,ChatGPT 是這一波技術(shù)革命開始的 Magic moment,Claude Sonnet 3.5、Manus、Sora、AlphaGo 都是 Magic moment,隨著 model scaling 帶來智能涌現(xiàn),用戶會有持續(xù)的感知差異,一旦用戶感知差異很大,用戶就會發(fā)生遷移。

OpenAI ChatGPT 真的有壁壘嗎?之前提到心智和品牌是護城河,但本質(zhì)上這個壁壘護城河是很低的,今天做 AGI 的模型公司和產(chǎn)品都沒有絕對壁壘,因為技術(shù)進步太快,壁壘沒辦法構(gòu)建。如果技術(shù)上突然好 10 倍了,出來一個多模態(tài)版本的 ChatGPT,或者 Agent 范式下的 ChatGPT 新形態(tài),或者 Manus 這種產(chǎn)品可以大規(guī)模放開使用,都是有機會大幅超過 ChatGPT 的用戶體驗的,我對未來兩年出現(xiàn)好 10 倍的技術(shù)也是有前所未有的信心。

今天還是圍繞智能主線,最重要的事情就是 push 智能往上走,做應(yīng)用的要構(gòu)建一個環(huán)境或容器,承接住研究溢出的智能紅利。研究溢出的智能紅利是今天做應(yīng)用最大的紅利。

張小珺:去年下半年我們以為國內(nèi)的一二名已經(jīng)差不多定下來了,但 DeepSeek 出來后,它的智能水平在那個時間點是最好的,就帶來了產(chǎn)品的爆發(fā),但這個也不是終局,也是動態(tài)的?

Guangmi Li:DeepSeek 的 Chat Bot 那段時間流量增長非常恐怖,如果把流量接下來,有可能今天都上億 DAU 了,可能可以和 OpenAI 掰手腕,但是 DeepSeek 選擇了放棄,這個原因在于:

首先,DeepSeek 的組織文化決定了戰(zhàn)略表達(dá),如果把流量接下來,那就需要一個產(chǎn)品團隊,這可能更適合字節(jié)、Meta。第二,Chat Bot 的商業(yè)模式、變現(xiàn)效率、產(chǎn)品形態(tài)可能都不是最本質(zhì)的,智能本身是最本質(zhì)的,今天智能的收益還是更客觀的,那就應(yīng)該繼續(xù) push 智能,放棄產(chǎn)品可能是對的,除非 Chat Bot 這個產(chǎn)品哪天發(fā)生了質(zhì)變。

張小珺:為什么在 Roadmap 上把 AI Robotics 排在了 AI for Science 后面?

Guangmi Li:我對 AI Robotics 的態(tài)度有些變化,從第一性原理看,今天做 Robotics Foundation model 不夠本質(zhì):

首先,數(shù)據(jù)上,OpenAI 和 GPT 語言模型能有 scaling law 本質(zhì)是有個 Common Crawl 數(shù)據(jù)集,持續(xù)抓住互聯(lián)網(wǎng)上的數(shù)據(jù),現(xiàn)在,一個人操作幾十臺設(shè)備,每個小時成本都幾十、上百塊,要采集 1 億小時有效數(shù)據(jù)就要幾億美金成本,scaling law 的驗證成本很高。期待 robotics 領(lǐng)域里 vertical Common Crawl 數(shù)據(jù)集出來。

其次,今天在算法架構(gòu)上也沒達(dá)成一致,還沒有通用泛化性的架構(gòu)出來。

從第一性原理出發(fā),今天語言的基礎(chǔ)模型多模態(tài)能力變強了,可以先在數(shù)字世界實現(xiàn) AGI,Agent 能看懂電腦屏幕,執(zhí)行各種 2D 操作,未來從 2D 走向 3D 是一個比較自然的過程,那時候?qū)τ布蕾嚩纫步档?,電腦其實也是一個硬件載體,應(yīng)該讓 AI 去適配硬件。

我對 AI for Science 的預(yù)期更高一些,上一波 AI for Science 好像沒找出什么好藥,但現(xiàn)在有可能大幅去 push,比如在濕實驗之前搭出來一個干實驗的環(huán)境,用 Agent 構(gòu)建一個虛擬的實驗室,變成 platform based,更 scalable。AI for Science 還是有一些明顯的趨勢,現(xiàn)在還有挺多創(chuàng)業(yè)公司。

AI4sci 現(xiàn)在有兩個明顯的趨勢和方向:第一, 正在出現(xiàn),自動化實驗室是未來的大趨勢。第二,各個垂直領(lǐng)域的 foundation model for bio 都在出現(xiàn),蛋白質(zhì)級別的結(jié)構(gòu)模型已經(jīng)到了生產(chǎn)可用的 GPT-3 moment,基因組級別的虛擬細(xì)胞 foundation model 已經(jīng)開始表現(xiàn)出一些初步的智能。

如果構(gòu)建一個 AI for Science 的虛擬實驗室,這個實驗室是可以自己驅(qū)動非常多工作的。第一是工作流,每個地方都可以做提效。每一個生物、化學(xué) PHD 有很多重復(fù)性工作,Agent 可以 cover 很多重復(fù)性的工作,讓 PHD 的帶寬放大,相當(dāng)于 AI 把整個的 Lab 的 batch size 加大。濕實驗很難被替代,但可以做到進入濕實驗前的 sample size 和探索空間變大,這也是很有意義的。

第二,非垂直領(lǐng)域的 foundation model 也出現(xiàn)了,比如蛋白質(zhì)、RNA 等等,過去這些場景很多要靠專家的 trail-and-error 感知,對各種序列的理解能力,這個領(lǐng)域容易出現(xiàn) “super human”級別的人類。

我現(xiàn)在花了很多精力開始學(xué) AI for Science,預(yù)計 2026、2027 年可能是一個爆發(fā)時間點。

張小珺:關(guān)于人形機器人公司你怎么看?

Guangmi Li:機器人和自動駕駛的技術(shù)成熟周期比較像,15、16 年就在提自動駕駛,現(xiàn)在過去十年了還沒有大規(guī)模落地。Robotics 還需要一個技術(shù)的成熟過程。

從第一性原理來看,確實機器人技術(shù)是不成熟的,還是需要很多研究工作去實現(xiàn)所謂的 Magic moment,比如泛化性。最終真的需要物理的機器人嗎?如果虛擬的 Agent 可以做非常非常多的事情,真的還需要物理機器人嗎?

張小珺:怎么看待現(xiàn)在軟硬一體的應(yīng)用,包括眼鏡。

Guangmi Li:更看好手機持續(xù)變得更強。智能眼鏡絕對不可能替換手機,最多是一個加強。今天眼鏡更像是一個可以記錄東西的攝像頭。AGI 時代,手機只會更強,不會被削弱。因為 Context 輸入輸出還是很穩(wěn)的,手機已經(jīng)變成人的器官了。

張小珺:“智能本身就是最大應(yīng)用”,智能的本質(zhì)是什么?

Guangmi Li:每個人的理解肯定不一樣,大家有想法可以打在評論區(qū),我很好奇每個人對智能的理解是怎么樣的。也可以問下 ChatGPT 和 Claude 或豆包。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

狹義上,智能是歸納、總結(jié)、推理,廣義上,智能就是人類進化,人類進化有 3 個關(guān)鍵詞:生存、探索和自動化。生存是所有事情的基礎(chǔ),人類持續(xù)的探索形成了經(jīng)驗、知識、群體組織和國家、公司制度,自動化就是軟件和機械,自動化是對探索之后的最佳實踐的傳遞,持續(xù)幫助人類把生產(chǎn)力提升。

金錢是人類社會的 reward model,激勵一些好的探索,人類誕生金錢后,經(jīng)濟總量增加很快,說明一個生態(tài)系統(tǒng)里面需要有 reward 獎勵系統(tǒng)的。

AI 智能很重要的原因在于 AI 是能增加人類探索空間的,比如我自己是 Deep Research 日活用戶,我每天至少問 3-5 個問題,它經(jīng)常給我很多思路的啟發(fā),是自己完全沒想到的,之前一上午調(diào)研一個問題,自己要瀏覽幾百個網(wǎng)頁,現(xiàn)在可以交給 Deep Research,一上午可以平行交給他 3-5 個調(diào)研任務(wù),甚至更多的問題,讓我自己做投資、探索、研究的 capacity 提升了非常多。

未來人類能探索很多東西,無數(shù)的 Agents 可以虛擬出來一個地球,虛擬出來虛擬實驗室,算力和數(shù)據(jù)幫人類做探索。

我認(rèn)同 Anthropic CEO Dario 說的未來一個世紀(jì)的探索,會被壓縮成 5-10 年。Coding 就是未來 AI 自動化探索的結(jié)果,人類絕大多數(shù)的任務(wù)都通過 Coding 來表達(dá)。

張小珺:智能進步的衡量標(biāo)志是什么?

Guangmi Li:有非常多的衡量標(biāo)準(zhǔn),一個可能是解鎖 AGI 應(yīng)用的速度,出來一個個的 Magic moments,這個進程明顯是在加速的,未來 AGI 應(yīng)用爆發(fā)越來越多。

如果非要一個量化的標(biāo)準(zhǔn),Token 消耗量可能是一個標(biāo)準(zhǔn)。一個 Chat Bot 對話可能消耗幾千個 Token,一個 Perplexity 搜索大概消耗幾萬個 Token,Manus 一個任務(wù)平均要消耗 70-80 萬個 Token。

還有個標(biāo)志是 AI 可能會做出很多超出人類認(rèn)知的行為,比如模型開始寫出人看不懂的代碼,但就是 work,我們也不用管為什么 work。

張小珺:為什么 Manus 要消耗那么多 token?

Guangmi Li:Manus 做的工作可能都是幾十步、幾百步,甚至上千步的,要幫我讀幾十、幾百個網(wǎng)頁,還要調(diào)用很多次工具,而且每做下一步的時候,上一步也非常重要,可能還要放到 Context Window 里,那 token 消耗量是反復(fù)增加很多的,對 Long Context 要求是更高的。Manus 操作速度是比人操作快很多的。

03Agentic AI & Online Learning

張小珺:為什么 AGI 應(yīng)用爆發(fā)的數(shù)量還比較少?雖然有 Manus,但還沒出來真正大規(guī)模使用的 Agent?

Guangmi Li:很大程度是 Agent 產(chǎn)品處于供給受限的狀態(tài),今天 Agent 是過度依賴模型能力。Agent 是新物種,模型和云廠商其實還沒做好 Infra 的準(zhǔn)備。

今天能講出來的 Agent 就幾種,比如:

?文本類任務(wù),比如 Deep Research,未來可能和 operator 集成;

?Coding 類任務(wù),比如 Devin, 未來 OpenAI、Anthropic、Cursor 可能都會做 Coding Agent;

?偏通用、日常任務(wù),比如 Manus,Anthropic 的 Computer use, ChatGPT Operator。

之前我和另一個原教旨主義的好朋友聊到 AGI 登山路線圖,他有一個很好的描述說,智能水平離 AGI 越近,可能就越像宇宙大爆炸,今天還能畫出來單點或一條線,后面可能就沒單點了,宇宙大爆炸之后就是百花齊放,全面展開了。AGI 的滲透很慢,一旦到某個臨界點爆發(fā)性很強。

張小珺:黃仁勛在 GTC 重點提的 Agentic 范式,Agent、Agentic 關(guān)鍵能力是什么?

Guangmi Li:Agent 落地有最關(guān)鍵的三個能力:第一個是 Long Context reasoning;第二個是 Tool use 工具調(diào)用能力;第三個是 Instruction following 指令遵循,做的任務(wù)很長,就要把整個指令要理解,而且要 follow 非常好。

三個能力對應(yīng)三種不同的 Infra 能力,比如給一個 Agentic 環(huán)境, 其實就是給 Agent 搭一個電腦、虛擬機、操作系統(tǒng)或者瀏覽器,環(huán)境是非常重要的。還要給 Agent 工具、Context、memory。

打開網(wǎng)易新聞 查看精彩圖片

外界經(jīng)常提到的 Planning、reasoning、action 這幾個能力也非常重要。模型內(nèi)在的 planning 很重要,在模型做多步驟任務(wù)的時候,模型自己要知道自己哪一步能實現(xiàn),哪一步實現(xiàn)不了,reasoning 也很重要。

Coding 本質(zhì)就是對應(yīng)到每一步的 action 執(zhí)行,也要會用工具 Tool use。Instruction following 是非常重要,Anthropic Claude 是斷檔的領(lǐng)先,這個和 Coding 比較強也是有相關(guān)性的。

上一期播客已經(jīng)提了 Context 很重要,現(xiàn)在 Context 是前所未有的重要。未來要完成任務(wù)自動化的話,要調(diào)取各種背景數(shù)據(jù),這些數(shù)據(jù)存在各個軟件里面,比如社交軟件、旅游軟件、電商軟件,數(shù)據(jù)就像存在了銀行的錢,現(xiàn)在還沒網(wǎng)銀系統(tǒng),需要一個標(biāo)準(zhǔn)接口,把各個銀行的數(shù)據(jù)打通,Context 里存在支付寶級別機會。

張小珺:Long Context 非常重要,怎么更好理解 Long Context 的重要性?

Guangmi Li:Agent 未來都是 long horizon reasoning,有非常多的步驟。假如做 1000 步解決一個復(fù)雜問題,后面的每一步要看前面幾步完成的結(jié)果,還需要 tool use,最后返回的東西會很大,很容易上到 1 million 的 Token,這個需要 Context Window 很長,能放進去 self inflection 自我反思的進程。

今天大家還沒有找到真正有效的 Long Context 的突破方式。Google 1 million token 也只是大海撈針,并不是真正意義上的 Context 解決。這里難點比較多,一是數(shù)據(jù)上,歷史上很難找到 1 million 同時推理的數(shù)據(jù),因為要做 Long Context 的前提是有很多 long horizon reasoning 的數(shù)據(jù),但這些數(shù)據(jù)都不是現(xiàn)成的。二是成本,成本是平方級別往上增加。三是架構(gòu),今天的 attention 架構(gòu)可能還是需要改變的。

AGI 接下來的 milestone 是 long-term memory,這個會取代 Long Context。再長的 Context,開啟新 task 就沒了。long-term memory 怎么解決也是很值得研究的,不知道什么時候能實現(xiàn)。

對于 Long Context 最簡單的理解就是,像有了電之后,電線需要鋪很長,且能耗很低,要把這個電送到很遠(yuǎn)的地方。MCP 就是標(biāo)準(zhǔn)的插座,應(yīng)用就是家電。

Long Context 在終局很重要,所有的 Long Context 技術(shù)本質(zhì)上都是將長序列信息壓縮。Linear attention 的主要問題在于壓縮方式不夠動態(tài),先壓縮成固定大小,之后再嘗試從這固定尺寸的壓縮結(jié)果中提取信息。今天壓縮方法有多種,sparse 壓縮可以找出統(tǒng)計上的點;cluster 壓縮則將相似內(nèi)容合并處理;而 linear attention 采用類似傅里葉展開的方式,尋找名義上的表達(dá)內(nèi)容。

從根本上講,最理想的壓縮方式是將信息直接存入模型的 weight 中,即參數(shù)權(quán)重。大家嘗試過 Linear attention,但 compression rate 不夠高,因為本質(zhì)還是一種線性壓縮。Inference time scaling 是一個成本問題,平方比線性更貴。Long Context 今天還沒有標(biāo)準(zhǔn)答案。

張小珺:你說兩年內(nèi)實現(xiàn) AGI 這個確定性比較高,是沿著現(xiàn)有的路徑往下走嗎?

Guangmi Li:是的,2026 年底或者 2027 年初。

張小珺:AGI 的定義有變化嗎?

Guangmi Li:在第一期播客提過 AGI 的定義是 3 個 90%,在 90%行業(yè)、達(dá)到 90%專家水平、能做 90%有經(jīng)濟價值的工作,這個定義沒變。今天可以再加一個環(huán)境,是在電腦或者數(shù)字、計算的環(huán)境下。

張小珺:如果現(xiàn)有路徑不能實現(xiàn) AGI 呢?還有哪些新的路徑嗎?

Guangmi Li:如果說未來還有范式級的路線,那可能是 Online Learning,核心是讓模型可以自主在線探索并學(xué)習(xí)。很像人類的生存方式,在生存和激勵的基礎(chǔ)上,有充分的好奇心做探索,把好的 workflow 抽象并自動化成自己的 workflow。

Online Learning 是讓模型通過和用戶的交互,實時更新小部分參數(shù)。但是什么情況下值得模型記憶和更新,這是沒有清晰 reward 的,模型要達(dá)成的目標(biāo)沒有好的定義方式,這個是對未來 AI Agent 有挑戰(zhàn)的。

Online Learning 能力有可能可以由模型微調(diào)實現(xiàn),包括個性化的 LoRA,可能由 multi-Agent system 實現(xiàn),甚至可以用一個定義好的 memory Agent 來做出智能的記憶機制。這也可能是一個還沒有想到的新技術(shù)解法。不同人聽到同一個內(nèi)容之后總結(jié)提煉的記憶也不一樣,因為這個很依賴智力、經(jīng)驗和品味。智力是模型需要提高的,經(jīng)驗和品味也是挺重要的。Chat Bot 這種對話產(chǎn)品的信息非常稀疏,在這種產(chǎn)品下做 Online Learning 難度挺大。

人類本身的 reward model 到底是什么?用來衡量一個人的量化標(biāo)準(zhǔn)可能是金錢,但金錢不完全客觀,有錢人不一定是好的人,窮人不一樣是壞的人,人類也缺好的 reward,歷史上很多有錢人都沒被銘記,反而是做了探索和突破的創(chuàng)新者被銘記了。Ilya 在 Online Learning 上做得好。

Memory、Multi-Agents 應(yīng)該不算范式級變化。在 pre-training上面做 RL 算半個范式創(chuàng)新,因為這個可能領(lǐng)先的模型都已經(jīng)在做了。

還有一個范式是全模態(tài)統(tǒng)一架構(gòu),多模態(tài)的輸入和多模態(tài)的輸出,統(tǒng)一架構(gòu)的想象力比較大,但研究上還需要做很多探索工作。

張小珺:GPT-4o 可以通過文本生成圖片,這個有創(chuàng)新嗎?可以算全模態(tài)的第一步或前幾步?

Guangmi Li:我覺得有創(chuàng)新,非常耗卡。

張小珺:怎么評價每個路線的差異呢?

Guangmi Li:可以畫一個坐標(biāo)軸,橫軸是資源和精力的投入,縱軸是智能的 performance,然后再畫幾條線,比如 pre-training、RL、Data,最后看每條線的收益走向和天花板。有可能數(shù)據(jù)那條曲線收益是非常高的,大家要很重視數(shù)據(jù)。

張小珺:剛才這些對 GPU 或者英偉達(dá)敘事影響有多大?

Guangmi Li:未來會有兩個敘事對算力刺激很大,一個是 pre-training 敘事重新回來,二是 Agentic 對 inference 算力消耗比 Chat Bot 的算力消耗有 1000 倍量級的提升,后面做復(fù)雜任務(wù)都是 Multi-Agents 持續(xù)的 inference。我對算力需求一直是非常樂觀的。

張小珺:怎么看待賈揚清的公司(Lepton AI)被賣掉?英偉達(dá)在下一盤什么大棋?

Guangmi Li:最大的棋是英偉達(dá)變成一個云廠商,變成 AWS 或 Azure,但老黃要照顧和云廠商的客戶關(guān)系,不敢放開手腳去干,之前支持了很多 GPU Cloud,coreweave 都上市了,但這些 GPU Cloud 軟件技術(shù)都很差,比 AWS 和 Azure 差太遠(yuǎn)了。賈老師的 Lepton 全棧的思路挺符合英偉達(dá)要自己做云的戰(zhàn)略的,賈老師 Lepton 賣的非常聰明,讀到了英偉達(dá)的需求。

張小珺:能不能總結(jié)一下上面說的全部?

Guangmi Li:第一是對實現(xiàn) AGI 有了前所未有的信心,第二是對 Pre training base model 持續(xù)提升有信心,第三是理清楚了 AGI 的主線,第四是對 Anthropic 有信心,長期應(yīng)該會是比 OpenAI 更有價值的公司,得 Coding,得 Agentic,才能得天下。

04模型公司的壁壘到底在哪?

張小珺:有一部分人在當(dāng)下沒有選擇去關(guān)注模型能力提升,而是去關(guān)注應(yīng)用,你覺得這個判斷是對的嗎?

Guangmi Li:應(yīng)該去做研究驅(qū)動的應(yīng)用,而不是用產(chǎn)品拉動的應(yīng)用。

張小珺:AI 市場目前有沒有泡沫?

Guangmi Li:泡沫肯定是有的,但 Agent 泡沫還沒開始。Pre training 有一波 hype,過去半年 RL 有一波 hype,第三波 Agent hype 剛開始,后面應(yīng)該能看到很多應(yīng)用套殼公司 IPO,這很正常。

張小珺:現(xiàn)在看起來是 AGI 技術(shù)在快速進步,但 AI 的產(chǎn)品和商業(yè)模式?jīng)]進步,普遍定價是 20 美元/月。

Guangmi Li:我也很好奇為什么今天定價都是 20 美元,是參考 SaaS 的定價嗎?但 SaaS 背后不會消耗大量 token,今天的 AI 產(chǎn)品都是消耗大量 token 的。長期來看這個定價是偏低很多的。

比如我們招一個投資研究員年薪 100 萬,如果 Deep Research 真做的更好,那是不是每年可以花 30 萬給 Deep Research,讓一個研究員的 capacity 變成 3 個人的 capacity。

張小珺:會有絕對通用的 Agent 出現(xiàn)嗎?

Guangmi Li:能不能通用取決于 pre-training和 RL 能走多遠(yuǎn)。還有剛才提到的那些關(guān)鍵能力,包括 planning、reasoning、Coding、action、Tool use、instruction following、Context,這些都是通用能力,如果通用能力很強,那是不是也接近通用 Agent?但今天如何做 Agent 是很強的非共識,現(xiàn)在有不同的路線做探索。

張小珺:Reward Model 泛化了嗎?

Guangmi Li:泛化性是最關(guān)鍵的,但現(xiàn)在比較微弱。

張小珺:模型的壁壘和長期商業(yè)模式會怎么樣?

Guangmi Li:模型公司的 Secret 沒有保鮮期,人員流動很快,大家?guī)е畔⒃诓煌玖鲃?。裸模型發(fā)布的時代可能會結(jié)束,未來模型的壁壘可能主要是兩個:一是成為 Cloud,OpenAI 要變成變成微軟的 Azure Cloud,二是成為 OS,養(yǎng)出一個生態(tài),后面大家要開始打造 Operating System 了。

今天的硬件都是在語音端,就是 GPU,今天除了手機,沒有看到好的端。

OpenAI 的商業(yè)模式也有可能是很好的,只要定價還可以繼續(xù)提升,to C 的生意比 to B 賣 API 生意要好,毛利更高,OpenAI 還是站了比 Anthropic 更好的位置。Anthropic 是專注模型 per-training 能力,幾乎放棄或不重視 C 端流量,不知道這件事情對不對。

張小珺:投資人應(yīng)該怎么投 AI 應(yīng)用呢?應(yīng)用公司怎么構(gòu)建自己的壁壘和護城河?

Guangmi Li:投資人之間的分歧也比較大。如果投應(yīng)用,傾向于投資研究推動的、research 溢出的產(chǎn)品。如果是產(chǎn)品推動研究,就不值得投資。

今天應(yīng)該花時間在理解基礎(chǔ)模型 Research 的突破,應(yīng)用是承接智能研究的紅利,應(yīng)用創(chuàng)業(yè)者都是盜火者,盜取智能溢出的紅利。今天最大的紅利,就是承接住模型 Research 結(jié)果的紅利。

應(yīng)用有沒有護城河取決于,第一,用戶數(shù)據(jù)能不能用起來,Cursor、Perplexity 積累的應(yīng)用數(shù)據(jù)怎么用起來,第二,怎么構(gòu)建一個獨立的環(huán)境。長期想做大的 Agent 公司要具備向下調(diào)整模型和做 Research 的能力,不然就容易被模型公司或者能向下調(diào)模型能力的公司干掉。

張小珺:今天對于用戶數(shù)據(jù)能不能用起來,有結(jié)論嗎?不能形成閉環(huán)或者數(shù)據(jù)飛輪?

Guangmi Li:用戶數(shù)據(jù)的作用非常微弱,應(yīng)該沒有大的用處。

今天 Chat Bot 收集了很多偏好數(shù)據(jù),更多 push MAU,但不提升模型能力。提升模型的數(shù)據(jù)叫能力數(shù)據(jù),不在用戶數(shù)據(jù)中,因為模型今天比絕大多數(shù)人聰明。

張小珺:長期來看,模型會把產(chǎn)品吃掉嗎?

Guangmi Li:本質(zhì)是 feature system 和 Learning system 哪個更快,模型是一個進步速度非??斓?Learning system,越來越多的能力和 feature 都在內(nèi)化到模型,模型上面的腳手架要持續(xù)重置,套殼 wrapper 的價值越來越小,但會產(chǎn)生新的套殼價值,套殼的階段性價值都存在,所以做應(yīng)用、做套殼的執(zhí)行力要快,退出也要快,更快的去做下一個事情。

過去兩年 record 來看,F(xiàn)ocus 產(chǎn)品的 AI 公司絕大多數(shù)都失敗了,而 Focus 模型本身的公司都成功了,focus 模型不代表一定要自己 pre-training模型,做模型的盜火者也可以,Perplexity、Cursor、Manus 其實是模型的盜火者。

張小珺:為什么 Perplexity 作為模型盜火者,沒有被模型公司吃掉?

Guangmi Li:這是因為 OpenAI 的戰(zhàn)略選擇和組織能力。今天最大的應(yīng)用還是 ChatGPT,ChatGPT 過去兩年增長非??欤畈欢?7 億月活,4 個多億周活,市場占有率在 Chat Bot 里是持續(xù)收斂加強的,代表著核心價值還是被基礎(chǔ)模型公司拿走了。

如果我是 Cursor CEO 或者 Perplexity CEO,危機感是很強的,會擔(dān)心基礎(chǔ)模型公司升級。Perplexity Deep Research 是不如 OpenAI 和 Grok 自己原生的效果好,Cursor 因為 Sonnet 3.7 出來后,維修了三四周,因為之前 Cursor 有一套外部腳手架,Sonnet 3.7 進步的時候就內(nèi)置了腳手架,所以就沖突了,現(xiàn)在 Cursor 也招了 Midjourney 做 training 的人過去,要端到端訓(xùn)練 RL、自己的模型。每一款想做好的超級應(yīng)用,長期都還是需要端到端訓(xùn)練 post training、RL 相關(guān)的。

另一個存在的問題是模型公司能不能做好產(chǎn)品,這非??简灲M織能力和優(yōu)先級,Anthropic 現(xiàn)在優(yōu)先級就不是做產(chǎn)品,他們模型訓(xùn)練搞的風(fēng)生水起,DeepSeek 也不需要太著急做產(chǎn)品,現(xiàn)在智能 Research 的收益還是更重要的。

但未來模型和產(chǎn)品的邊界會變得越來越模糊。應(yīng)用公司會做自己的模型,模型公司也會往上做產(chǎn)品。

張小珺:Agent 對 SaaS 公司會是什么影響?

Guangmi Li:如果 Agent 到本科生水平,還需要 SaaS 嗎?假如 Agent 有了無限的 Memory、Online Learning,Agent 會自己會做 Research,相當(dāng)于你的 iPhone、微信全部權(quán)限開放給我,我花 1 萬小時研究你的微信,可能比你還懂你自己。

有了 Agent 之后,不知道 SaaS 公司存在的價值是什么。

張小珺:GPU Capex 投入這么大,Capital efficiency 不夠高,模型訓(xùn)練的經(jīng)濟性如何理解?

Guangmi Li:OpenAI 這幾百億美金的投入,其實是給全人類提供了巨大的技術(shù)杠桿,OpenAI 幾千個人杠桿了幾億人的生產(chǎn)力,是很偉大的,給通脹的世界提供了巨大的通縮力量。

傳統(tǒng)的軟件開發(fā)是要把一個個 function 都要開發(fā)出來,現(xiàn)在 AGI 應(yīng)用是 70-80%的東西都不用開發(fā)了,今天都包在模型里面了,直接調(diào)用模型就好了,相當(dāng)于人類未來 10 年的 R&D 成本提前投入了,是人類面向未來的大基建投入。

張小珺:對于模型和應(yīng)用的關(guān)系,以及價值鏈劃分,怎么看?

Guangmi Li:今天價值鏈的利潤池分配很不合理的,比如從英偉達(dá)到 AWS、Anthropic、Cursor,英偉達(dá)幾乎拿走了利潤的 80%,AWS 拿走了 30%,Anthropic 是虧的,Cursor 也是負(fù)毛利。

長期看,利潤會逐漸往后遷移,AWS 的利潤會起來,模型和應(yīng)用公司的利潤也起來。我是對模型公司的長期價值信心越來越強的。

張小珺:2025 AI 哪里會出黑天鵝?

Guangmi Li:現(xiàn)在已經(jīng)出現(xiàn) DeepSeek 了,持續(xù)再出現(xiàn)的概率很大,黑天鵝事件能把很多模型公司下限打到很低,就是價值毀滅。

比如 DeepSeek R2 追到 O3 水平,對生態(tài)是好事,但算不上黑天鵝量級。能算得上黑天鵝量級的,比如 ilya 出一個全新架構(gòu),學(xué)習(xí)效率很高,很少的數(shù)據(jù)和一定的算力就可以很聰明;比如 Mira 做出下一代多模態(tài)的 ChatGPT,打敗今天的 Chat Bot 形態(tài),或者誰定義出了新的 Agent 產(chǎn)品形態(tài)。還是會有黑天鵝,但不確定哪里爆發(fā)出來。

05頭部 AI 公司最新競爭格局

張小珺:現(xiàn)在基礎(chǔ)模型公司的競爭格局是怎么樣的?

Guangmi Li:OpenAI 現(xiàn)在核心 bet 是兩個:第一是希望通過 O 系列 RL、reasoning model 路徑就實現(xiàn) AGI,第二是希望把 ChatGPT 做成 10 億活躍用戶的 killer app。

Anthropic 核心 bet,一是專注 pre-training 一個很強的 base model,bet on Coding 和 Agent 或 Agentic。OpenAI 重視 C 端市場,Anthropic 重視 B 端市場。

前面有一些吐槽 OpenAI 不好的,但從實際格局來看,OpenAI 領(lǐng)先優(yōu)勢在過去兩年是在加強的,讓整個模型格局收斂的很快,小模型和垂直模型公司已經(jīng)沒了,可能長期就不存在獨立的小模型和垂直模型公司,有可能就是基礎(chǔ)大模型公司 take 一切。OpenAI ChatGPT 流量集中度持續(xù)在大幅提升的,增加的很快,其他 C 端產(chǎn)品幾乎沒出來,Perplexity 量也沒有那么大,最后流量都還跑到了 ChatGPT。

從 AI native revenue 角度,OpenAI 和 Anthropic 這兩家?guī)缀跄米吡苏麄€市場 revenue 的 80% ,Cursor 都是給 Anthropic 打工。把 OpenAI 和 Google 對比,Google 過去 1-2 年幾乎沒從 OpenAI 搶走什么東西,OpenAI 的增量用戶是非常強的,還在持續(xù)變強。

最近 OpenAI 又發(fā)布了文生圖,ChatGPT 過去兩年的產(chǎn)品越來越豐富,是在顯著進步,但 Google Search 并沒有顯著變好,且份額開始下降。一旦 Google Search 份額顯著下降,是非??膳碌?。OpenAI 就是盯著 Google 打的,可能成為下一個 Google。

OpenAI 已經(jīng)把很多創(chuàng)業(yè)公司的機會磨滅了,OpenAI 的生態(tài)下其實沒長出大公司。Anthropic 想當(dāng) Andorid,OpenAI 想做蘋果,但理論上 OpenAI 也可以即做 Andorid 也做蘋果,但可能因為 ChatGPT 過于成功有拖累了。

之所以 Anthropic 和 xAI 還能活著,背后其實是 Amazon 和 Musk 撐著,不然早掉隊了。 但 Anthropic 這個團隊是很強,是超預(yù)期的,Anthropic 生態(tài)也越來越好,出現(xiàn)了 Cursor、Manus。

DeepSeek 是完全意料之外的,OpenAI 和 Anthropic 覺得 DeepSeek 對他們零影響。我傾向于認(rèn)為 xAI 的 Grok 和 DeepSeek 在路線上還是跟隨 OpenAI 現(xiàn)有路線,先把 OpenAI 實現(xiàn)的東西追平,去逼近,還沒實現(xiàn)反超,在追平的基礎(chǔ)上再有新的 bet。

Google 多模態(tài)比較強,其他的 bet 不算清晰,還是以跟隨為主,開玩笑說 Google 是被 OpenAI 領(lǐng)導(dǎo)的公司,經(jīng)常能在 OpenAI 發(fā)出來東西之后,3 個月時間追平甚至領(lǐng)先,但每次又得到 Sam 的狙擊。Google Gemini 流量其實還是很小。

張小珺:GPT-4.5 算不算領(lǐng)先?

Guangmi Li:把模型 scaling 到很大的意義還是比較重要的,如果不 scaling 上去,相當(dāng)于登山?jīng)]有登到很高的地方,view 就沒有看到。GPT-4.5 可能還是會比較強,很多能力今天沒有被激活,我覺得 4.5 的意義可能比 O3 更大。

張小珺:GPT-5 為什么一直在跳票?

Guangmi Li:假如 OpenAI 和 AWS 合作,而不是微軟,可能 GPT-5 早就出來了。微軟的 Infra 可能太拉胯了,如果一半時間都在 debug,相當(dāng)于 AGI 時間延長了一倍。

張小珺:GPT-5 會是什么樣?

Guangmi Li:Sam 在 Twitter 上說 GPT-5 是 hybird model,我猜是 GPT 作為 base model,并融合 O 系列。但今天 GPT-4.5 這么大的模型,做 RL 成本太高,跑不動,估計還得重新訓(xùn)練一個比 4.5 小的模型,但能力要非常強。GPT-4o 可能馬上就退出歷史舞臺了,可能要有一個新的旗艦?zāi)P蛠碇巍?/strong>

張小珺:估計什么時候能看到?預(yù)期有多高?

Guangmi Li:預(yù)期今年夏天能看到。應(yīng)該會有 GPT-3.5 到 GPT-4 量級的提升,人的 benchmark 不太能發(fā)現(xiàn)模型背后的暗物質(zhì)。

張小珺:怎么看待 OpenAI 支持了 Anthropic 的 MCP 協(xié)議?這兩家關(guān)系如何?

Guangmi Li:這表示基本確定 MCP 就是 AI Agent 的 tcpip 協(xié)議了。OpenAI 還挺尊重 Anthropic 這個團隊的,這個團隊專注做 research,Sam 也挺大氣的,雖然有競爭,但大家路徑在分化,一個 to C,一個 to B,也還行。

張小珺:OpenAI 和微軟為什么會有裂痕?

Guangmi Li:$7T、500B 的本質(zhì)是什么?如果 Sam 有了 5000 億美金,OpenAI 其實就變成新的 Azure 云服務(wù)商了,會不會和 Azure 發(fā)生根本性沖突?500B 可能是市面上能圈到的所有的錢了。

張小珺:OpenAI 和微軟分家,對微軟影響多大?

Guangmi Li:Azure 起了個大早,但可能是個 AGI 失敗者,可能也沒有那么失敗,畢竟 OpenAI 很多的 inference 還跑在上面。微軟手上一堆好牌,但沒打好,開發(fā)者產(chǎn)品都讓 Cursor 等應(yīng)用跑出去了。今天的 foundation model 就是下一個 Window 操作系統(tǒng),微軟如果沒有操作系統(tǒng)和開發(fā)者生態(tài)是比較困難的,更看好 AWS。

張小珺:OpenAI 有沒有失敗的風(fēng)險?

Guangmi Li:整體還好,OpenAI 剛?cè)诹?400 億美金,未來幾年應(yīng)該比較安全。C 端領(lǐng)先優(yōu)勢一騎絕塵,也還比較穩(wěn)。投資 OpenAI 更像是投一個消費互聯(lián)網(wǎng)公司的邏輯了,看能不能成為下一個 Google。

OpenAI 可能很快就 3000 人了,有點走向 Google,組織一旦變大,可能就很難極度專注 AGI 了,要做的事情太多。我更關(guān)注 OpenAI 后面會砍掉什么業(yè)務(wù),比如就放棄 API,專注做 C 端 ChatGPT,做好更多的產(chǎn)品,做好 Coding Agent,去掀翻 Google 也是個 bet。

歷史上同時做好 C 端和 B 端是比較少的。微軟也是做好了 B 端,C 端沒有做很好。

OpenAI 最大的風(fēng)險是 base model 不夠領(lǐng)先,別的模型公司先做出來下一個更強的 base model,很多開發(fā)者在這個 base model 上做出 super app 會搶走了 ChatGPT 的流量,現(xiàn)在是一個快速的技術(shù)進步周期,不能停下來。

張小珺:xAI Grok 今天突出的能力是什么?

Guangmi Li:比較突出的是 writing 寫作,但這個市場也不大。xAI 和 Twitter 合并是情理之中。之前 Grok 在產(chǎn)品上沒一個明確基本盤,OpenAI 有了 ChatGPT 并在持續(xù)增強,Anthropic 占了 Coding 和開發(fā)者,Grok 只能先拿了 Twitter,反正都是同一個老板。

我對 xAI 的印象就是執(zhí)行力超強,Infra也很強,pre-training team 能力很強,很多朋友工作到凌晨 3-4 點是常態(tài)。Grok 3 其實不錯的,也算 base model SOTA 水平,或者起碼第一梯隊了,也會持續(xù)訓(xùn)練更大的模型。

張小珺:xAI 和 Twitter 為什么合并?在老產(chǎn)品里加一個 Grok,有一個新的入口?

Guangmi Li:Grok 可能缺一個產(chǎn)品形態(tài),但 Twitter 也不一定是對的產(chǎn)品形態(tài),畢竟是老產(chǎn)品。主要是為了流量。ChatGPT 可能有 6、7 億 MAU,Twitter 有 5 個多億 MAU,算是一個量級,但 ChatGPT 還是更大。

張小珺:Ilya 想要做的 ASI 和 AGI 有什么差異?要實現(xiàn) ASI 還需要什么?

Guangmi Li:AGI 是普通本科畢業(yè)生操作電腦,ASI 是愛因斯坦,達(dá)到大學(xué)業(yè)生水平和達(dá)到愛因斯坦水平是有本質(zhì)區(qū)別的,實現(xiàn) AGI 的確定性非常清楚了,但實現(xiàn) ASI 還需要一些突破。ilya 有可能是贏在 2 年后。

AGI 強調(diào)的是通用的人類水平,ASI 強調(diào)的是領(lǐng)域的超級專家水平,在一個領(lǐng)域內(nèi)能發(fā)現(xiàn)新知識、批量實現(xiàn)最強專家,自動化 SOP。ilya 想要做通用的超級專家,但超級專家是否能通用,是不是真的有 1000 萬名通用的諾獎級別的愛因斯坦,這是有待驗證,因為人類歷史上已經(jīng)很久沒有真正的通才了。

ASI 可能會帶來一個專業(yè)知識領(lǐng)域的壟斷,一個領(lǐng)域內(nèi)的頂尖專家現(xiàn)在能交流的對象是很少的。Deep Research 這樣的 AI 產(chǎn)品已經(jīng)成為了他們很重要的 thinking partner,當(dāng)時 200 刀定價的時候,很多科學(xué)家是愿意付費的。不過 Deep Research 現(xiàn)在還只有信息搜集能力,ASI 能基于這些信息產(chǎn)生新知識或者定律的話,對一個學(xué)科或領(lǐng)域會產(chǎn)生很大的價值,甚至可能新點亮一些科技樹。今天最接近 ASI 的是 AI Coding,進步速度尤其快。

張小珺:怎么看 Mira 的新公司 Thinking Machine?

Guangmi Li:團隊非常好,遠(yuǎn)強于 OpenAI 早期的樣子,OpenAI 最核心的 post training team 以及最老的 Infra team 的核心都加入了 Mira。團隊 Infra 和 post-training 都很強,吸引人才能力很強,Mira 很大方,聽說很多人都拿了股票。

有個有趣的現(xiàn)象是,模型復(fù)現(xiàn)時間在縮短,Claude 追到 GPT-4 水平大概花了 2-3 年,Mira 這個團隊估計 1 年內(nèi)甚至更短時間可能就夠了,但追 base model 不是他們的目標(biāo),他們還是做產(chǎn)品。

張小珺:他們想做什么?Mira 之前在 OpenAI 的時候,就對發(fā)布 ChatGPT 有很大影響。

Guangmi Li:可能要做一個能打敗 ChatGPT 的產(chǎn)品,可能是多模態(tài)版本 ChatGPT,或者 Agent 范式的 ChatGPT。Mira 這個新公司的團隊幾乎就是做 ChatGPT 的核心團隊,OpenAI 剩下的團隊是 push AGI、做智能的團隊,但又分裂出一個做 O 系列的團隊。

Mira 也可能代表另外一個意識形態(tài),Mira 是很欣賞梁文鋒的,她覺得 OpenAI 和 Anthropic 是美國精英思路,閉源,有一定道德約束,所以 AGI 不至于做壞事。但 Mira 可能信奉更開放的 AGI,power 應(yīng)該交還給社區(qū),聽說會在 DeepSeek V3 的基礎(chǔ)上做 post train,mid train,未來再做 pre-train,可能是走應(yīng)用優(yōu)先的策略,也會定期開放開源一些自己的研究。這也是組織能力下的 bet。

張小珺:不同的戰(zhàn)略選擇背后是不同的價值觀,不同的組織能力。之前我們有一期播客專門聊過 Perplexity,可以對比一下今年的 Manus 和 Perplexity 嗎?

Guangmi Li:這兩個都是執(zhí)行力很強的團隊,都被稱作套殼之王。他們都是打開潘多拉魔盒的人,Manus 更明顯。Manus 是一個 token 容器,能極致榨干模型智能,模型越好對 Manus 越好,Manus 非常吃模型能力,即使有更強的模型能力出來,Manus 都吃得下。

但模型越好,對 Perplexity 沒那么突出增加體驗。Perplexity 是抓住了兩年快速成長的窗口,那兩年 ChatGPT、Claude、Google 都沒做好,給了 Perplexity 成長的窗口。

Manus 今天面對的競爭環(huán)境肯定是更加激烈,沒有能猥瑣發(fā)育的時間了,對肖弘、張濤、Peak 來說,怎么打好這張牌,要求是很高的,因為 Manus 在智能的主線上,這也是比較興奮的,登上了全球最高水平的賽場。Manus 的火爆肯定是超預(yù)期的,建議重視 research,未來肯定要做 post train 和 RL 相關(guān)的。

張小珺:ChatGPT 的 Deep Research 會做 Manus 嗎?Deep Research 的未來是怎么樣?

Guangmi Li:Deep Research 是 OpenAI Agent 的雛形,后續(xù)肯定會集成更多產(chǎn)品,比如 Operator、Coding 等。未來可能就是 General Agent,但有兩個發(fā)展方向:一個是走向 Google,變成更高級的 Deep Search,第二是走向?qū)I(yè)化,比如 co-scientis、co-analyst。

張小珺:對于 Devin、Cursor、DeepSeek 產(chǎn)品的看法呢?

Guangmi Li:Devin 抓住了一個時間窗口,選擇了提前等模型這樣一個比較激進的做法。但 Devin 解決的問題容易被模型公司 cover,Devin 解決的任務(wù)類型要么是模型能力不夠的時候就不 work,要么等模型變強了,Devin 也沒價值了。

Cursor 目前 interface 交互價值比較大,如果智能很強了,不確定還要不要這些交互。有可能 Cursor 是個階段性產(chǎn)品,模型能力提升后可能兩句 prompt 就解決了。最近 Notion 做交互的首席設(shè)計師和 Midjourney 做 training 的人加入了 Cursor,他們肯定會探索新的交互形態(tài)和自己的 model training。

DeepSeek 的創(chuàng)新很多是在幻方量化積累了很強的 Infra 之上催生的,Infra stack 是非常 solid,真正的科學(xué)探索上的范式級的創(chuàng)新相對還少一些,我是比較期待 DeepSeek 出現(xiàn)真正的范式級創(chuàng)新。

張小珺:全球范圍,對 AGI 推動貢獻最高的一些人是哪些?哪些人水平比較高?

Guangmi Li:貢獻和水平是要分開,ilya 和 Noam 這兩個人貢獻最大。ilya 是神,幾乎指明了今天行業(yè)在走的最核心的路線,今天可能還會沿著 ilya 指的路線繼續(xù)走很長時間。ilya 在 2020 年初的時候,所有人都還在做 bert,還沒出現(xiàn) LLM 范式,ilya 就開始提 RL 和 pre-training 了,是非常 visionary 的。Noam 的貢獻是在架構(gòu)上。

其次,水平上比較高的是 Dario 和 Alec,Alec 的成就是 GPT-1。Dario 的 taste 很好,知道今年整個行業(yè)和技術(shù)走到了哪一步,如果當(dāng)時不是 Dario 堅持 bet GPT-3,OpenAI 可能就會停留在 GPT-1。

之后可能是 John Schulman、Mira。

Sam 對業(yè)界貢獻很大,把 hype 弄起來。Sam 是一個想象力非常大的人,幫很多人打開了想象空間,裹挾大量資源推動 AGI,researcher 有了更多的 GPU,個人待遇也好了很多。Sam 綜合是很強的,但他的一些外部行為不代表真實的 OpenAI,很多可能是煙霧彈,比如他有時候發(fā)的東西不一定是主線的東西。

06如何構(gòu)建 AGI portfolio

張小珺:站在財務(wù)收益回報的角度,如果給你 1 億美金或者 10 億美金,讓你今天構(gòu)建一個 AGI portfolio 去全球范圍內(nèi)投資,按照最新的估值,假設(shè)都能投進去,你會投給哪些公司?

Guangmi Li:我會投 25% 給 Anthropic, 25% 給 Bytedance,10% 給 OpenAI,10% 給 Mira 的 Thinking Machines lab,5% 給 ilya 的 SSI,5% 給 Cursor,5% 給 Manus,另外 15%還沒想好。如果 DeepSeek 融資,我也會放基金的 25%,團隊還是很強的。

有個有意思的點是,我認(rèn)識的 Researcher 朋友,幾乎 99%都覺得字節(jié)好,甚至認(rèn)為字節(jié)股票的上限是比 OpenAI 要更高的,這些 researcher 個人都想去買字節(jié)的股票。

字節(jié)比較低調(diào),也是被低估的,營收和利潤都非常好,2030 年 OpenAI 的營收利潤肯定還遠(yuǎn)遠(yuǎn)不如字節(jié)今天的營收利潤,它兩個今天的估值都是 3000 億。你是投資字節(jié)還是 OpenAI?

張小珺:字節(jié)今天的 AI 探索不一定能讓舊產(chǎn)品擴大 10 倍。

Guangmi Li:得看 AGI 的未來,今天的營收和利潤都是走向未來的養(yǎng)料,OpenAI 還需要外部融資,字節(jié)可以內(nèi)生賺錢,賺 1000 億美金去投 AGI,不知道 OpenAI 未來還能不能融到 1000 億美金。

張小珺:為什么不是字節(jié)做出了 DeepSeek?為什么小組織更容易成功?

Guangmi Li:字節(jié)沒有做出 DeepSeek 是大組織的問題,可能字節(jié)未來是一個更加靈活的組織。

組織能力非常關(guān)鍵。今天的 AGI 是一個科學(xué)界的探索,小組織更靈活,敢于 bet,做 AGI 有賭性是特別重要的。

張小珺:在這個 portfolio 里,為什么 Anthropic 的錢比 OpenAI 多?

Guangmi Li:我對 Anthropic 的團隊更有信心,對 pre-training base model、bet on Coding 和 Agent 更有信心。我比較看好他們的 Roadmap 和戰(zhàn)略重點、組織能力。

最新的估值上,Anthropic 是 615 億美金,OpenAI 是 3000 億,Mira 的公司是 100 億,ilya 的公司是 300 億。

錢放在 Mira 公司比放在 ilya 公司多的原因在于,ilya 失敗風(fēng)險是非常高的,更科學(xué)探索,而 Mira 成功的概率是比較高的,大概率要被收購的。不管是 Apple 還是 Meta,大廠都需要一個 Mira 那樣非常強的團隊,并有非常好的文化和組織。

錢放在 Manus 和 Cursor 一樣多是因為這是兩個模型能力的表達(dá),代表兩個應(yīng)用的方向,一個是 Coding Agent,一個是 tool use。

張小珺:整體上,相比應(yīng)用公司,你還是會在基礎(chǔ)模型公司上放的錢更多。

Guangmi Li:今天是僅有的一點點時間窗口,可以去投一個 AGI 基礎(chǔ)模型。如果 DeepSeek 開放融資,放的錢是和字節(jié)、Anthropic 一樣多,都是基金上限的 25%。

張小珺:作為一個投資人,對未來 3-5 年投資上最大的 bet 是什么?

Guangmi Li:最大的 bet 就是 AGI 帶來科學(xué)的文藝復(fù)興。具象來講,一個是 2030 年前會有多家市值超過 $10T 的公司;第二是,從具體表現(xiàn)上,會有下一個 Google、Windows、Office、Meta,甚至下一個 Pfizer、Lilly。

下一個 Google 已經(jīng)有雛形了,可能就是 OpenAI。Next Windows 可能就是 Claude,Claude 就是新的 Windows 或安卓。Next Office 就是接下來爭奪的 Coding Agent 或者 General Agent。Next meta 還看不到。AI for science 里會有下一個 Pfizer、Lilly,也有可能 Pfizer、Lilly 未來會非常強,變成好幾個 T 的公司。

打開網(wǎng)易新聞 查看精彩圖片

07AGI 組織文化競爭僅次于算力

張小珺:在 AGI 時代,組織文化作為關(guān)鍵競爭力,被低估了嗎?

Guangmi Li:組織和文化競爭力是僅次于算力的核心競爭力。

DeepSeek 給了很多啟發(fā),比如靈活,小團隊,敢于 bet。做 AGI 要有賭性的,有限資源就得猛搞一個大 bet,OpenAI 早期的賭性就很強,組織變大后,賭的阻力很大,沒辦法快速下注,OpenAI 的賭性逐漸在變?nèi)酰胍奶?,核心是看一個組織敢于放棄什么。

AGI Roadmap 都是可以變的,都是在組織能力之下的,人才密度遠(yuǎn)遠(yuǎn)比人才數(shù)量重要太多。今天是 AGI 探險,每一刻都在推動智能邊界,所以每個位置上的人都很關(guān)鍵。

張小珺:怎么判斷一個組織是不是 AGI-native? 什么是好的組織文化?

Guangmi Li:可以看有幾個特點有沒有做到:是不是 AGI first、Research first、Researcher first,有沒有 AI 的一號位,是不是領(lǐng)軍人物,優(yōu)秀 researcher 愿不愿意加入,有沒有自己的 bet 以及人才晉升機制,到底什么樣的人被 value、被獎勵。

團隊成員的話,要年輕聰明、有想象力、有執(zhí)行力,經(jīng)驗和資歷不重要。想象力、年輕和執(zhí)行力是特別重要的。

AGI 和訓(xùn)練模型沒有那么神秘,就是做研究,是一個實驗工程,但組織非常關(guān)鍵。大概率 25、26 年會再來幾個 GPT-3.5 到 GPT-4 級別的智能躍升,很多科技公司管理層已經(jīng)跟不上技術(shù)突破節(jié)奏,面對 Research 的巨大投入,很難做出判斷,也選不好 AI 一號位,想豪賭都不知道怎么下注,上次和老王聊天,他說不應(yīng)該再持有不 All in AGI 的科技公司了。

如果想在 AGI 時代 build the next big thing,就不要戀戰(zhàn)今天的產(chǎn)品形態(tài)、商業(yè)模式、用戶積累、老的組織,時代秩序在劇變,要把智能技術(shù)提升當(dāng)作唯一主線,把智能本身當(dāng)作最大應(yīng)用,把 90 后甚至 95 后 AI 研究員納入到核心管理層,選好 AI 一號位。

張小珺:全球這么多公司,哪家公司能最先實現(xiàn) AGI?

Guangmi Li:大概率還是 OpenAI 和 Anthropic 最早,其次是 Google 和 xAI。中國至少也有 3-4 家也能實現(xiàn) AGI,字節(jié)和 DeepSeek 可能是最確定的,另外可能還有 1-2 家。

DeepSeek 就等于開源,有可能字節(jié)也會開源一些,中國走開源未嘗不是一個好的路徑。開源無國界,可以突破地緣的封鎖。

張小珺:硅谷對于中國 AI 的進展,態(tài)度有轉(zhuǎn)變嗎?怎么看中美的 AI 走勢?

Guangmi Li:只要現(xiàn)有路徑下美國實現(xiàn)了 AGI,中國的復(fù)現(xiàn)是必然。過去兩年中美差距是毫無疑問地在快速縮小,很多地方基本上每 3-6 個月就能追平。中國的人才是非常強的,雖然美國世界級的頂尖科學(xué)家很多,但中國可能有幾百個、幾千個 Junior 一線人才,龐大的教育體系積累了非常多好的人才。

除了 DeepSeek 大家預(yù)期很高之外,我最看好字節(jié),后面 scaling base model 還是需要非常強的 Infra 能力,字節(jié)這種大公司花很多力氣做 Infra,之后價值就會體現(xiàn)出來。

如果 Infra 比較差,不僅僅是存在成本問題,而是沒辦法爬到某個高度,跑大的試驗都有很多困難。比如large scaling RL Infra,之前 pre-training 的訓(xùn)練框架和 RL 訓(xùn)練框架是分開的,未來是要融合到一起的,要在 GPU 上實現(xiàn)推理和訓(xùn)練兩個狀態(tài)來回切換,一邊 sampling,一邊 training,就會 bug 很多,挑戰(zhàn)很大。

之所以 DeepSeek 能做好,是因為幻方 Infra 很強,只有把 Infra 做好,才能實現(xiàn)或者高效率做事,不然整個 Foundation 都會跟著變差。一旦 Infra 不夠好,很多事情都做不好。很多 Researcher 很多的時間都浪費在 Infra debug 上,這樣就會把實現(xiàn)的 AGI 時間拖長了。

張小珺:中國公司里面你最喜歡誰?

Guangmi Li:對字節(jié)的預(yù)期最高,不是說模型水平追平到全球第一梯隊,而是大公司要做大公司應(yīng)該做的事情,中國很缺一個 DeepMind 或 Google brain 一樣、具備長期 Vision、純粹的 AI Lab,去培養(yǎng)人才,我希望字節(jié)有這個文化,有 Vision 和魄力拿出很大的營收來投入基礎(chǔ)的科研,搞好 full stack 基建、Infra、去探索智能的上線。

對字節(jié)來講再做一個抖音可能都不夠興奮了,探索智能的邊界是更有意義的。大公司之前是有大公司的組織問題,只要組織理順了,后勁非常強。字節(jié)人才密度是很高的,過去可能因為地緣比較低調(diào)。我比較期待后面能有突破智能上限的東西。

創(chuàng)新的基礎(chǔ)是充裕的資本、冒險精神,還要有比較好的 Infra、文化。

張小珺:今年對中國實現(xiàn)或者復(fù)現(xiàn) AGI 更有信心了?

Guangmi Li:取決于兩個條件,第一,是否就靠現(xiàn)有的 pre-training 和 RL 路線,不再需要其他路徑或者 fundamental 的突破,就可以實現(xiàn) AGI;第二,是否不需要幾十萬或百萬張 GPU,可能幾萬張 GPU 就夠了。如果這兩條滿足,中國也實現(xiàn) AGI 的確定性是非常高的。

美國公司之所以那么燒錢,是因為很多 GPU 用作探索,探索很耗卡,加上 OpenAI 還要做大量用戶服務(wù),如果不做 服務(wù)可能不需要太多。如果純復(fù)現(xiàn),有可能 3-5 萬、5-10 萬張 GPU 就夠了。探索花費的時間成本,會是復(fù)現(xiàn)的 5-10 倍。

中國團隊的加速度是比美國團隊更快的,國內(nèi) Junior 優(yōu)秀人才的質(zhì)量應(yīng)該是比美國好,Devin 團隊的執(zhí)行力就沒有 Manus 團隊的執(zhí)行力強。

張小珺:硅谷創(chuàng)新和中國創(chuàng)新的特點有什么不一樣?

Guangmi Li:硅谷很多 0-1 創(chuàng)新,是不屑于去追隨或復(fù)制的,原因之一是硅谷資本特別充裕,有 500 到上千家投資機構(gòu),大家都很有錢,資本充裕是一個非常重要的創(chuàng)新土壤。另一個原因是具備冒險精神,中國有很多 1-100 的創(chuàng)新,我們把硅谷的 0-1 發(fā)揚光大。

張小珺:在 AGI 時代,中國還會都是 1-100 的創(chuàng)新嗎?會有更多 0-1 的創(chuàng)新嗎?創(chuàng)新模式和技術(shù)會不會發(fā)生變化?

Guangmi Li:我覺得會發(fā)生變化。之所以對字節(jié)有預(yù)期,就是因為大公司要做大公司做的事,資本充裕,文化、Infra 比較好,還要有冒險精神。DeepSeek 是一個富人做出來的,沒有充裕的資本是不行的。所以資本充裕是創(chuàng)新的前提,還有就是冒險精神。

DeepSeek 出來對字節(jié)的沖擊還是有的,但這是好事,把大家拉回智能的主線上,而不是過多聚焦在豆包這個產(chǎn)品上。之前大家都投流做增長,今天做增長,長期看可能是有意義的,但也有可能占用了組織太多精力。

智能是主線,智能是最大的應(yīng)用。即使用戶量很大,未來如果有一個好 10 倍的技術(shù),目前這些壁壘是守不住的,所以今天產(chǎn)品增長是不本質(zhì)的。投流也不應(yīng)該停止,這也是人類的探索行為,豆包應(yīng)該還在增長。

張小珺:前幾天你在朋友圈寫了:假設(shè) Apple iPhone 是中國團隊做出來且受中國控制,美國用戶極其喜歡,美國本土造不出來,這時候地緣問題會怎么解決?你問這個問題本質(zhì)是什么?

Guangmi Li:今天最大的期待或者最大的興趣,就是在 AGI 疊加復(fù)雜的地緣亂紀(jì)元背景下,怎么做好一家 AGI-native 且全球化的跨國公司。

假設(shè) Apple 是一家中國公司,能不能跨越地緣問題,銷售到全球化市場?我覺得答案是可以的。但今天中國公司還沒有一家能超越 Apple 做產(chǎn)品和技術(shù)的極致,我們在技術(shù)和產(chǎn)品上還是很大距離的。其實核心就是:把產(chǎn)品和技術(shù)做到極致,取得斷層的領(lǐng)先,要把競爭對手打服。

DeepSeek 這一波很大程度上是挑戰(zhàn)到了美國的科技霸權(quán)霸主地位,我們挺期待越來越多的“DeepSeek 時刻” 。作為年輕創(chuàng)業(yè)者,腦子里不用太顧慮地緣問題,就抓住做好技術(shù)和產(chǎn)品,地緣問題最后總是能解決的。

張小珺:為什么一定要做全球化?

Guangmi Li:要非常激進的全球化。好的技術(shù)和產(chǎn)品無國界,這是領(lǐng)先的表現(xiàn)。上一代做好全球化的互聯(lián)網(wǎng)公司是不多的。

美國過去的強大有 3 個表現(xiàn):美元、美國的跨國公司、美式的意識形態(tài),美國人覺得自己制定了近代近百年的全球秩序,是有一層優(yōu)越感的。期待更多的中國創(chuàng)業(yè)者能做出中國原生的跨國公司。

張小珺:華人在硅谷做投資的天花板在哪?創(chuàng)業(yè)的天花板在哪?

Guangmi Li:科技投資不是靠“混”能混出結(jié)果的,很多 VC 投資人到處混圈子,其實沒意義,天花板很低,還是得靠“創(chuàng)造”,真的深入扎進去一個行業(yè),push 到極致。

純靠到處混,有 connection 不難,但跨越種族和文化、建立信任是很難的,很多人也去混硅谷科技圈子,其實很難混到核心圈,很難和 Sam、Dario、Arivind 建立信任,還是得自身足夠牛逼,硅谷這個生態(tài)才會 value 你的價值。所以要多去想創(chuàng)造,不要想靠混,不然很被動,天花板很低。

做投資的天花板相對都是低的,創(chuàng)業(yè)做企業(yè)家的天花板更高,應(yīng)該更多去做創(chuàng)造,我們很快就要面對或者今天已經(jīng)進入了 AGI 科學(xué)的文藝復(fù)興時代了,后續(xù)的機會是宇宙大爆發(fā)式的。

AGI 的原教旨主義是相信科學(xué)本身,上一代投資人相信產(chǎn)品和商業(yè)模式,但今天看產(chǎn)品算帳沒有意義。今天的核心變化只有科學(xué)在進步這一個。

張小珺:你覺得在新的 AGI 框架下,所有的敘事都會發(fā)生變化?

Guangmi Li:今天過早討論太多用戶需求意義不大,這是一個供給驅(qū)動的市場,手機上的需求已經(jīng)被窮舉過很多次了,今天的變化不在需求端,需求是可以被刺激出來的,非常多的核心變量是在供給端,比如癌癥、糖尿病、肥胖癥。

張小珺:如果推演未來的 1 年,還會發(fā)生哪些變化?

Guangmi Li:變量非常多,不知道從哪里出來,今天的線性外推只是一個參考。

我預(yù)期 Claude 4 能比較顯著超過今天的 GPT-4.5,base model 持續(xù)提升,大家回來卷 pre-training base model。Google Search 的份額和營收會開始根本性的被動搖,Agent 對 search 廣告的影響比較大。在下一個強大的 base model 拉開差距之前,ChatGPT 流量端持續(xù)加強,每個月 1000-2000 美金的收費,甚至更貴的定價,會被更多人接受,因為它的價值在被體現(xiàn)。

打開網(wǎng)易新聞 查看精彩圖片

轉(zhuǎn)載原創(chuàng)文章請?zhí)砑游⑿牛篺ounderparker