這兩天是英偉達年度大會。

皮衣黃用了兩小時拋出了一連串產(chǎn)品,從算力怪獸芯片到開源機器人模型,從液冷革命到量子計算,每一招都在改寫AI行業(yè)的游戲規(guī)則。

看得出來,英偉達不僅僅要做芯片巨頭,還要做AI全棧生態(tài)的基礎設施,讓所有AI算力、算法、應用都跑在自家的架構上。

而且,英偉達橫向擴展的能力越來越強,連量子計算都已經(jīng)準備好了。

當然,都知道發(fā)布會產(chǎn)品到實踐還有一段距離。我們先看看英偉達發(fā)布了什么,再說這種發(fā)布是否具有實踐性,是否引起同行學習。

Blackwell Ultra B300:

性能飆升50%、全液冷

照例是算力芯片升級,這次重點是Blackwell Ultra架構芯片B300 GPU。

采用臺積電4NP工藝,HBM3e內(nèi)存容量提升至288GB(較B200提升50%),F(xiàn)P4算力達11.5 ExaFLOPS,推理速度較Hopper架構提升40倍,支持1,000 tokens/秒的模型推理。

也就是說,運行DeepSeek R1-671B模型時,其吞吐量達到1000 tokens/秒,將Hopper架構的100 tokens/秒碾壓式甩開,復雜問題響應時間從1.5分鐘壓縮至10秒。

按照老黃過去反復表達的意思,DeepSeek這么強,更離不開算力作為支撐。如果算力更強大,DeepSeek也會更優(yōu)秀。

打開網(wǎng)易新聞 查看精彩圖片

這次發(fā)布會,算力直接飆升50%,算是一個小小的回應。

更值得玩味的是,英偉達刻意將對比錨點設為上一代Hopper而非B200,被外界解讀為“照顧大客戶情緒”的公關策略——畢竟微軟剛砸重金采購B200,AWS、Meta卻已轉向等待B300。

同樣,還透露一個信息:液冷的時代真的來了。1.4kW的單芯片功耗逼出了散熱設計的終極形態(tài)——獨立冷板液冷系統(tǒng)。每個GPU配備獨立進出水口的設計,直接宣判了傳統(tǒng)風冷數(shù)據(jù)中心的“死刑”。

VeraRubin架構:面向2026

Blackwell Ultra是當下王者, Vera Rubin架構就是英偉達為“超大規(guī)模模型”埋下的未來殺招。

這套以女天文學家命名的平臺,首次祭出四Die封裝GPU,單顆芯片堆疊288GB HBM4e內(nèi)存,帶寬沖上13TB/s,F(xiàn)P8訓練算力1.2 ExaFLOPS——足足是Blackwell Ultra的3.3倍。

而配套的Vera CPU更是英偉達自研ARM架構的“叛變之作”,88核176線程設計直接將Grace CPU的性能翻倍,內(nèi)存帶寬提升2.4倍。

打開網(wǎng)易新聞 查看精彩圖片

黃仁勛在現(xiàn)場調侃Blackwell命名失誤的“小八卦”,實則暗藏技術玄機:Blackwell的NVLink拓撲因雙Die設計被迫更名,而Rubin的NVL576架構直接將GPU互聯(lián)數(shù)推至576個,總帶寬突破1.5PB/s,足以支撐未來十萬億參數(shù)模型的訓練。

這種“暴力堆料”背后,是英偉達對AI算力需求每年翻10倍的預判——到2027年,單機架算力將突破15 ExaFLOPS,相當于3000臺Hopper機柜的合力。

DGX Spark/Station:人人用得起 “超算”

這次想不到的是,“個人AI計算機”DGX Spark僅售3000美元(2萬人民幣),價格比當前的AI一體機便宜太多了。

這臺巴掌大的設備,能塞進128GB統(tǒng)一內(nèi)存和4TB NVMe SSD,以1 ExaFLOPS算力運行2000億參數(shù)模型——要知道,五年前同等性能需要占據(jù)整個機房。

而其大哥DGX Station更是瘋狂,784GB系統(tǒng)內(nèi)存+20 ExaFLOPS算力的配置,直接將科研級AI訓練從云端拉回本地桌面。

這兩款產(chǎn)品的顛覆性在于算力民主化。過去動輒百萬美元的超算門檻,被壓縮到中小企業(yè)可承受的范圍。華碩、戴爾等合作伙伴的入局,更預示著一場“桌面超算”的普及風暴——未來每個創(chuàng)客工作室都可能使用AI能力。

這下,誰會更慌了?

Dynamo:AI工廠的“渦輪增壓器”

“這不是操作系統(tǒng),這是AI時代的蒸汽機!”黃仁勛如此定義開源框架Dynamo。

這個被稱作“AI工廠操作系統(tǒng)”的怪物,用分離式推理服務技術,將大模型的“思考”與“生成”階段拆分到不同GPU,硬生生把單卡token生成量拉升30倍。

與Perplexity的合作案例顯示,DeepSeek-R1模型在Dynamo調度下,GPU資源利用率暴漲40倍——相當于用同樣的電費,多賺30倍“推理生產(chǎn)力”。

打開網(wǎng)易新聞 查看精彩圖片

Dynamo的野心遠不止于技術優(yōu)化。其開源屬性和對KV緩存、并行計算的智能編排,本質上是在構建推理時代的生態(tài)標準。

當開發(fā)者無需再為底層架構焦頭爛額,整個AI應用層的創(chuàng)新速度或將迎來核爆式增長。

Isaac GR00T N1:機器人的“雙腦革命”

壓軸登場的Isaac GR00T N1,可能是整場發(fā)布會最具科幻感的突破。

這款全球首個開源人形機器人基礎模型,采用雙系統(tǒng)認知架構:“系統(tǒng)1”如同條件反射般操控關節(jié)運動,“系統(tǒng)2”則像人類大腦般規(guī)劃復雜任務。

打開網(wǎng)易新聞 查看精彩圖片

現(xiàn)場演示中,搭載該模型的機器人Blue僅用10分鐘訓練數(shù)據(jù),就完成了跨環(huán)境物體抓取和多步驟協(xié)作。

更狠的是英偉達的生態(tài)打法——聯(lián)手谷歌DeepMind和迪士尼推出Newton物理引擎,將觸覺反饋和軟體模擬精度提升至新維度。迪士尼已計劃用它打造下一代機器人角色,而通用汽車則借此加速自動駕駛研發(fā)。

這種“開源模型+行業(yè)巨頭”的組合拳,很可能讓人形機器人賽道提前三年進入量產(chǎn)競賽。

結語:一場重構產(chǎn)業(yè)鏈的算力

從B300的液冷狂飆到Rubin的四Die封裝,從桌面超算的普惠革命到機器人OS的開源突襲,英偉達GTC 2025的本質是一場算力供給側的暴力改造。

當黃仁勛說出“未來每家公司都需要兩個工廠——一個造產(chǎn)品,一個造AI”時,產(chǎn)業(yè)鏈的震動已然開始:液冷廠商英維克、光模塊龍頭中際旭創(chuàng)、機器人關節(jié)模組企業(yè)綠的諧波……這些藏在財報背后的名字,正在成為新算力時代的“軍火商”。

而更深刻的變革在于生態(tài)話語權——通過Dynamo開源、GR00T模型和QODA量子算法庫,英偉達正在將CUDA帝國的護城河,挖向每一個AI應用場景的毛細血管。

這場發(fā)布會或許會被歷史標記為:傳統(tǒng)云計算時代的終章,開啟推理霸權時代的開篇。