作者:高飛
如果說(shuō)AI產(chǎn)業(yè)現(xiàn)在有一個(gè)風(fēng)向標(biāo)公司,自然會(huì)是英偉達(dá);如果看英偉達(dá)最新的動(dòng)向,那無(wú)疑是每年一度的GTC大會(huì);而如果說(shuō)GTC最不能錯(cuò)過(guò)的環(huán)節(jié),自然就是黃仁勛的主題演講了。
黃仁勛的演講開(kāi)始時(shí)間是在北京時(shí)間3月19日的凌晨1點(diǎn),美國(guó)當(dāng)?shù)貢r(shí)間上午十點(diǎn),不過(guò)八點(diǎn)鐘我到場(chǎng)的時(shí)候,會(huì)場(chǎng)所在的圣何塞SAP中心外就已經(jīng)有排隊(duì)的隊(duì)伍。入場(chǎng)后,屏幕預(yù)熱的是美國(guó)知名科技播客Acquired Podcast雙人組主持的場(chǎng)內(nèi)訪談。他們之前專(zhuān)訪過(guò)黃仁勛,也曾經(jīng)制作過(guò)一只英偉達(dá)公司發(fā)展史播客,信息量很足。而參與訪談的人不僅包括了Dell公司創(chuàng)始人邁克爾·戴爾,也出現(xiàn)了前英特爾CEO基辛格的身影。

演講開(kāi)始,黃仁勛身還是一身標(biāo)志性的黑色皮夾克,GTC上一屆被形容為"AI伍德斯托克",今年則是"AI超級(jí)碗",只不過(guò)這里不是競(jìng)技體育,所以沒(méi)有零和游戲,“人人都是贏家”。
01、AI發(fā)展進(jìn)程:從感知到生成再到代理和物理AI
黃仁勛在演講開(kāi)始時(shí),回顧了AI在過(guò)去十年的快速演進(jìn)歷程。他指出,人工智能的發(fā)展經(jīng)歷了幾個(gè)關(guān)鍵階段:首先是感知AI(包括計(jì)算機(jī)視覺(jué)和語(yǔ)音識(shí)別),然后是生成式AI,現(xiàn)在已進(jìn)入代理AI(agentic AI)階段,而物理AI和機(jī)器人技術(shù)正成為下一個(gè)重要浪潮。

"AI已經(jīng)取得了巨大的進(jìn)步。它只經(jīng)歷了10年的發(fā)展。人工智能真正進(jìn)入全球意識(shí)大約是在十年前。它開(kāi)始于感知AI、計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別,然后是生成式AI。在過(guò)去五年,我們主要關(guān)注生成式AI,教AI如何從一種模態(tài)轉(zhuǎn)換到另一種模態(tài),如文本到圖像、圖像到文本、文本到視頻、氨基酸到蛋白質(zhì)、屬性到化學(xué)物質(zhì)等各種方式。"黃仁勛解釋道。
他強(qiáng)調(diào),生成式AI從根本上改變了計(jì)算方式。過(guò)去的計(jì)算模型主要是基于檢索的,我們預(yù)先創(chuàng)建內(nèi)容,存儲(chǔ)多個(gè)版本,然后在使用時(shí)獲取最合適的版本。而現(xiàn)在,AI理解上下文,理解我們的請(qǐng)求含義,能夠生成答案而不僅僅是檢索數(shù)據(jù)。
"從檢索計(jì)算模型,我們現(xiàn)在有了生成計(jì)算模型,而過(guò)去我們幾乎所有的工作都是預(yù)先創(chuàng)建內(nèi)容,存儲(chǔ)多個(gè)版本,然后在使用時(shí)獲取我們認(rèn)為合適的版本?,F(xiàn)在,AI理解上下文,理解我們的請(qǐng)求,理解我們請(qǐng)求的含義,并生成它所知道的內(nèi)容。如果需要,它會(huì)檢索信息,增強(qiáng)其理解,并為我們生成答案。不是檢索數(shù)據(jù),而是生成答案。這從根本上改變了計(jì)算的方式。"
接著,黃仁勛詳細(xì)闡述了代理AI的概念:"代理AI基本上意味著你擁有一個(gè)具有代理能力的AI。它可以感知并理解環(huán)境上下文,它可以推理,非常重要的是,它可以推理如何回答或解決問(wèn)題,它可以規(guī)劃行動(dòng),它可以規(guī)劃并采取行動(dòng)。它可以使用工具,因?yàn)樗F(xiàn)在理解多模態(tài)信息。它可以訪問(wèn)網(wǎng)站,查看網(wǎng)站的格式、文字和視頻,甚至可能播放視頻,從中學(xué)習(xí),理解這些信息,然后回來(lái)使用這些信息,使用這些新獲得的知識(shí)來(lái)完成任務(wù)。"
代理AI的基礎(chǔ)是推理能力,這一點(diǎn)與早期的大語(yǔ)言模型有著根本區(qū)別。黃仁勛指出:"兩年前,當(dāng)我們開(kāi)始使用ChatGPT時(shí),盡管它已經(jīng)是個(gè)奇跡,但對(duì)于許多復(fù)雜問(wèn)題甚至一些簡(jiǎn)單問(wèn)題,它仍然無(wú)法正確回答。這是可以理解的,它只是一次性輸出,無(wú)論它從預(yù)訓(xùn)練數(shù)據(jù)中學(xué)到什么,或者從其他經(jīng)驗(yàn)中看到的,它都只是像沙龍一樣一次性輸出。而現(xiàn)在我們有了可以推理的AI,它們可以一步步地分解問(wèn)題,使用稱(chēng)為思維鏈(chain of thought)、n中最佳(best of n)、一致性檢查(consistency checking)等各種路徑規(guī)劃和技術(shù)。"
02、AI計(jì)算需求的爆發(fā)性增長(zhǎng)
黃仁勛揭示了一個(gè)被廣泛誤解的事實(shí):AI推理已成為極限計(jì)算問(wèn)題,其計(jì)算需求比去年同期預(yù)期高出約100倍。他明確指出:"人工智能的Scaling Law更具彈性,事實(shí)上是超加速的。由于代理AI和推理能力,我們目前所需的計(jì)算量是我們?nèi)ツ甏藭r(shí)認(rèn)為需要的100倍。"
這種計(jì)算需求的爆發(fā)主要源于兩方面:首先,具備推理能力的AI需要生成大量"思考令牌"來(lái)進(jìn)行逐步推理;其次,為了訓(xùn)練這些模型,需要使用強(qiáng)化學(xué)習(xí)和可驗(yàn)證結(jié)果等技術(shù),這些也需要大量計(jì)算資源。
黃仁勛通過(guò)一個(gè)生動(dòng)的示例。展示了推理型模型和傳統(tǒng)大語(yǔ)言模型之間的差異:在一個(gè)婚禮座位安排問(wèn)題上,傳統(tǒng)LLM生成了439個(gè)令牌但結(jié)果錯(cuò)誤,而推理模型生成了8,600多個(gè)令牌并得出正確答案。
他說(shuō),"傳統(tǒng)語(yǔ)言模型做一次性推斷。所以一次性推斷是439個(gè)令牌。它速度快,效果好,但結(jié)果是錯(cuò)的。所以這是439個(gè)浪費(fèi)的令牌。另一方面,為了對(duì)這個(gè)問(wèn)題進(jìn)行推理,這實(shí)際上是一個(gè)非常簡(jiǎn)單的問(wèn)題,只需再增加幾個(gè)難題變量,推理就變得非常困難,它用了8,000,接近9,000個(gè)令牌。而且因?yàn)槟P透鼜?fù)雜,它需要更多的計(jì)算。"
有意思的是,黃仁在這個(gè)演示中,推理模型選擇的是DeepSeek R1。

這種增加的計(jì)算需求對(duì)AI基礎(chǔ)設(shè)施提出了更高要求,黃仁勛解釋了AI推理的復(fù)雜性:"每生成一個(gè)令牌,我們就要將整個(gè)模型和上下文輸入進(jìn)來(lái),我們稱(chēng)之為KV緩存,然后我們生成一個(gè)令牌。然后我們將這個(gè)令牌放回我們的大腦,生成下一個(gè)令牌。每次我們這樣做,我們都會(huì)輸入萬(wàn)億參數(shù),生成一個(gè)令牌。萬(wàn)億字節(jié)的信息,萬(wàn)億字節(jié)的信息被輸入到我們的GPU中,一次產(chǎn)生一個(gè)令牌。"
黃仁勛將推理比喻為工廠生產(chǎn):"推理是工廠進(jìn)行的令牌生成,而工廠是創(chuàng)收和創(chuàng)利的,或者說(shuō)缺乏創(chuàng)收和創(chuàng)利。因此,這個(gè)工廠必須以極致的效率和極致的性能來(lái)建造,因?yàn)檫@個(gè)工廠的一切都直接影響你的服務(wù)質(zhì)量、收入和盈利能力。"
03、Blackwell架構(gòu)與Blackwell Ultra:AI基礎(chǔ)設(shè)施的重大突破
黃仁勛宣布,Blackwell架構(gòu)已全面量產(chǎn),這一架構(gòu)代表了計(jì)算設(shè)計(jì)的根本性轉(zhuǎn)變。他展示了從HGX架構(gòu)到全新的Grace Blackwell NVLink 72架構(gòu)的轉(zhuǎn)變過(guò)程,這是一次真正的計(jì)算革命。

"這是整個(gè)行業(yè)的重大變革。在座的所有人,我要感謝你們實(shí)現(xiàn)了這一從集成NVLink到分離式NVLink、從空氣冷卻到液體冷卻、從每臺(tái)計(jì)算機(jī)約6萬(wàn)個(gè)組件到每個(gè)機(jī)架60萬(wàn)個(gè)組件、120千瓦完全液體冷卻的根本性轉(zhuǎn)變,因此,我們?cè)谝粋€(gè)機(jī)架中就有了一臺(tái)一個(gè)exaFLOPS的計(jì)算機(jī)。難道這不是不可思議嗎?"
Blackwell架構(gòu)采用了分離式NVLink交換機(jī)設(shè)計(jì)。在過(guò)去的架構(gòu)中,NVLink開(kāi)關(guān)嵌入在主板上,而在新架構(gòu)中,他們將NVLink系統(tǒng)分離出來(lái)并放置在機(jī)箱中央,有18個(gè)這樣的開(kāi)關(guān)分布在9個(gè)不同的開(kāi)關(guān)托盤(pán)中。計(jì)算節(jié)點(diǎn)現(xiàn)在完全液冷,這使得所有計(jì)算節(jié)點(diǎn)可以壓縮到一個(gè)機(jī)架中,每個(gè)機(jī)架包含約600,000個(gè)組件,重3,000磅,有約5,000根電纜(總長(zhǎng)約兩英里),集成成一個(gè)超級(jí)計(jì)算機(jī)。
黃仁勛展示了Blackwell相比Hopper的顯著性能提升。在ISO功率條件下(相同功耗),Blackwell的性能是Hopper的25倍,對(duì)于推理工作負(fù)載,特別是推理模型,性能甚至可達(dá)40倍。
"在推理模型中,Blackwell的性能是Hopper的40倍,直接提升。非常驚人。我之前說(shuō)過(guò),當(dāng)Blackwell開(kāi)始大量出貨時(shí),你甚至無(wú)法贈(zèng)送Hopper。這就是我的意思。這是有道理的。如果有人仍在考慮購(gòu)買(mǎi)Hopper,不要害怕,沒(méi)關(guān)系。但我是首席收入破壞者。我的銷(xiāo)售人員說(shuō),'哦,不要這么說(shuō)'。在某些情況下,Hopper是可以的。這是我能對(duì)Hopper說(shuō)的最好的話(huà)。在某些情況下,它是可以的。不是很多情況。"
在演講中,黃仁勛正式宣布了Blackwell Ultra的到來(lái),這是Blackwell架構(gòu)的增強(qiáng)版本。"NVIDIA Blackwell Ultra增強(qiáng)了訓(xùn)練和測(cè)試時(shí)間擴(kuò)展推理(在推理過(guò)程中應(yīng)用更多計(jì)算以提高準(zhǔn)確性的藝術(shù)),使世界各地的組織能夠加速AI推理、代理AI和物理AI等應(yīng)用。"
Blackwell Ultra將推出兩個(gè)版本:一個(gè)配備兩個(gè)與NVIDIA Arm CPU配對(duì)的芯片,稱(chēng)為GB300;另一個(gè)版本僅配備GPU,稱(chēng)為B300。它還將推出帶有八個(gè)GPU的單個(gè)服務(wù)器刀片版本,以及一個(gè)包含72個(gè)Blackwell芯片的機(jī)架版本。
具體來(lái)說(shuō),Blackwell Ultra NVL72平臺(tái)將于2025年下半年上市,它具有如下特點(diǎn):
- 帶寬是原版Blackwell的兩倍
- 內(nèi)存速度是原版的1.5倍
- 單個(gè)Ultra芯片提供與Blackwell相同的20 petaflops AI性能
- 內(nèi)存從192GB增加到288GB HBM3e
- DGX GB300 "Superpod"集群擁有300TB內(nèi)存(原來(lái)是240TB)
黃仁勛表示:"人工智能已經(jīng)取得了巨大的飛躍——推理和代理人工智能需要更高數(shù)量的計(jì)算性能。我們?yōu)檫@一刻設(shè)計(jì)了Blackwell Ultra——它是一個(gè)單一的多功能平臺(tái),可以輕松高效地進(jìn)行預(yù)訓(xùn)練、后訓(xùn)練和推理人工智能推理。"
04、NVIDIA Dynamo:AI工廠的操作系統(tǒng)革命
為了管理代理AI復(fù)雜的工作負(fù)載,NVIDIA發(fā)布了Dynamo操作系統(tǒng),它專(zhuān)為AI工廠設(shè)計(jì),能夠動(dòng)態(tài)管理和優(yōu)化計(jì)算資源。黃仁勛將這款軟件比作電機(jī)(Dynamo),象征著它在AI時(shí)代的重要性,就像電機(jī)在電氣時(shí)代的革命性角色一樣。
"我剛才描述了流水線(xiàn)并行、張量并行、專(zhuān)家并行、動(dòng)態(tài)批處理、分離式推理、工作負(fù)載管理,然后我必須拿這個(gè)叫做KV緩存的東西,我必須將它路由到正確的GPU,我必須通過(guò)所有內(nèi)存層次結(jié)構(gòu)來(lái)管理它。這部分軟件極其復(fù)雜。因此,今天我們宣布NVIDIA Dynamo。NVIDIA Dynamo完成所有這些工作。它本質(zhì)上是AI工廠的操作系統(tǒng)。"

Dynamo是一款開(kāi)源推理軟件,用于以最低的成本和最高的效率加速和擴(kuò)展AI工廠中的AI推理模型。黃仁勛解釋了為什么將這個(gè)系統(tǒng)命名為Dynamo:"你知道,電機(jī)是啟動(dòng)上一次工業(yè)革命的第一個(gè)工具,即能源工業(yè)革命。水進(jìn)入,電出來(lái),非常棒。你知道,水進(jìn)來(lái),你點(diǎn)燃它,變成蒸汽,然后出來(lái)的是這個(gè)看不見(jiàn)的但非常有價(jià)值的東西。雖然之后花了80年才發(fā)展到交流電,但電機(jī)就是一切開(kāi)始的地方。"
Dynamo的主要功能是協(xié)調(diào)和加速數(shù)千個(gè)GPU之間的推理通信,并通過(guò)分解服務(wù)將大型語(yǔ)言模型的處理和生成階段分離在不同GPU上。這允許每個(gè)階段根據(jù)其特定需求進(jìn)行獨(dú)立優(yōu)化,并確保最大程度地利用GPU資源。
Dynamo包含幾個(gè)關(guān)鍵能力:
1. 動(dòng)態(tài)資源管理:根據(jù)不斷變化的請(qǐng)求量和類(lèi)型動(dòng)態(tài)添加、移除和重新分配GPU,以及在大型集群中精確定位特定GPU,以最大限度地減少響應(yīng)計(jì)算和路由查詢(xún)。
2. 內(nèi)存優(yōu)化:將推理數(shù)據(jù)卸載到更便宜的內(nèi)存和存儲(chǔ)設(shè)備,并在需要時(shí)快速檢索它們,從而最大限度地降低推理成本。
3. KV緩存映射:將推理系統(tǒng)在內(nèi)存中保存的知識(shí)映射到可能數(shù)千個(gè)GPU上的先前請(qǐng)求,然后將新的推理請(qǐng)求路由到具有最佳知識(shí)匹配的GPU,避免昂貴的重新計(jì)算并釋放GPU來(lái)響應(yīng)新的傳入請(qǐng)求。
黃仁勛表示:"世界各地的行業(yè)都在訓(xùn)練AI模型以不同的方式思考和學(xué)習(xí),隨著時(shí)間的推移,它們會(huì)變得更加復(fù)雜。為了實(shí)現(xiàn)自定義推理AI的未來(lái),Dynamo有助于大規(guī)模服務(wù)這些模型,從而推動(dòng)整個(gè)AI工廠的成本節(jié)約和效率提高。"
實(shí)驗(yàn)表明,使用相同數(shù)量的GPU,Dynamo使在當(dāng)今NVIDIA Hopper平臺(tái)上為L(zhǎng)lama模型提供服務(wù)的AI工廠的性能和收入翻了一番。在GB200 NVL72機(jī)架的大型集群上運(yùn)行DeepSeek-R1模型時(shí),Dynamo的智能推理優(yōu)化還將每個(gè)GPU生成的令牌數(shù)量提高了40倍以上。

黃仁勛宣布Dynamo將完全開(kāi)源,支持PyTorch、SGLang、NVIDIA TensorRT-LLM和vLLM,使企業(yè)、初創(chuàng)公司和研究人員能夠開(kāi)發(fā)和優(yōu)化跨分解推理服務(wù)AI模型的方法。它將使用戶(hù)能夠加速AI推理的采用,包括AWS、Cohere、CoreWeave、Dell、Fireworks、Google Cloud、Lambda、Meta、Microsoft Azure、Nebius、NetApp、OCI、Perplexity、Together AI和VAST等合作伙伴。
05、CUDA-X庫(kù)生態(tài)系統(tǒng):加速計(jì)算的多樣化工具集
黃仁勛在演講中著重強(qiáng)調(diào)了NVIDIA的軟件能力和CUDA-X生態(tài)系統(tǒng)的重要性。"NVIDIA一直使用通用計(jì)算機(jī),以超慢的速度運(yùn)行軟件為他人設(shè)計(jì)加速計(jì)算機(jī)。直到最近,我們才有針對(duì)CUDA優(yōu)化的軟件庫(kù)。"
他強(qiáng)調(diào),CUDA不僅僅是一個(gè)軟件,而是一整套生態(tài)系統(tǒng)和庫(kù),使開(kāi)發(fā)者能夠加速各種科學(xué)和工程領(lǐng)域的計(jì)算。CUDA-X包含900多個(gè)特定領(lǐng)域的庫(kù)和AI模型,為眾多應(yīng)用提供計(jì)算加速能力。

黃仁勛詳細(xì)介紹了多個(gè)CUDA-X庫(kù)及其應(yīng)用:
1. cuPYNUMERIC:用于NumPy的加速。"NumPy是全球下載量最大的Python庫(kù),去年下載了4億次。cuPYNUMERIC是NumPy的零更改直接替代加速。所以如果你們中有人在使用NumPy,試試cuPYNUMERIC吧,你會(huì)愛(ài)上它的。"
2. cuLitho:計(jì)算光刻庫(kù)。"在四年的時(shí)間里,我們現(xiàn)在已經(jīng)將整個(gè)光刻處理過(guò)程,計(jì)算光刻,這是晶圓廠的第二個(gè)工廠,納入進(jìn)來(lái)。有制造晶圓的工廠,然后有制造信息以制造晶圓的工廠。未來(lái)每個(gè)擁有工廠的行業(yè)、每個(gè)公司都會(huì)有兩個(gè)工廠:一個(gè)用于建造產(chǎn)品的工廠,另一個(gè)用于數(shù)學(xué)的工廠,AI的工廠。"
3. Arial:用于5G的庫(kù)。"Arial是我們用于5G的庫(kù),將GPU轉(zhuǎn)變?yōu)?G無(wú)線(xiàn)電。為什么不呢?信號(hào)處理是我們做得非常好的事情。一旦我們做到了這一點(diǎn),我們可以在其上添加AI。AI用于RAN或我們稱(chēng)之為AI RAN。下一代無(wú)線(xiàn)網(wǎng)絡(luò)將深度嵌入AI。"
4. cuOPT:數(shù)值或數(shù)學(xué)優(yōu)化庫(kù)。"幾乎每個(gè)行業(yè)都在使用這個(gè)——當(dāng)你在航班上規(guī)劃座位,庫(kù)存和客戶(hù),工人和工廠,司機(jī)和乘客,等等,我們有多重約束,多重變量,你正在優(yōu)化時(shí)間、利潤(rùn)、服務(wù)質(zhì)量、資源使用等等。NVIDIA使用它進(jìn)行我們的供應(yīng)鏈管理。cuOPT是一個(gè)令人難以置信的庫(kù),它把原本需要幾個(gè)小時(shí)的事情變成了幾秒鐘。" 黃仁勛宣布NVIDIA將開(kāi)源cuOPT,并表示正在與Gurobi、IBM CPLEX和FICO合作。
5. Parabricks:用于基因測(cè)序和基因分析。
6. Monai:全球領(lǐng)先的醫(yī)學(xué)成像庫(kù)。
7. Earth2:用于高分辨率預(yù)測(cè)本地天氣的多物理學(xué)模型。
8. cuQuantum和CUDA-Q:用于量子計(jì)算研究。"我們正在與生態(tài)系統(tǒng)中幾乎所有人合作,或者幫助他們研究量子架構(gòu)、量子算法,或者建立經(jīng)典加速的量子異構(gòu)架構(gòu)。"
9. cuDSS:稀疏求解器,對(duì)CAE非常重要。"這是去年發(fā)生的最重要的事情之一。與Cadence、Synopsys、Ansys、Dassault和所有系統(tǒng)公司合作,我們現(xiàn)在已經(jīng)使幾乎所有重要的EDA和CAE庫(kù)都能被加速。"
10. cuDF:用于結(jié)構(gòu)化數(shù)據(jù)的數(shù)據(jù)框架。"我們現(xiàn)在有一個(gè)用于Spark的直接替代加速和用于Pandas的直接替代加速。非常棒。"
11. Warp:在Python中運(yùn)行的物理庫(kù),一個(gè)用于CUDA的Python物理庫(kù)。黃仁勛提到,使用Warp,Autodesk使用八個(gè)GH200節(jié)點(diǎn)可以進(jìn)行最多48億個(gè)單元的模擬,這比使用H100節(jié)點(diǎn)大5倍。

黃仁勛強(qiáng)調(diào),這些庫(kù)的價(jià)值不僅在于它們提供的加速,還在于CUDA的廣泛部署:"CUDA的安裝基礎(chǔ)現(xiàn)在無(wú)處不在。它在每個(gè)云中,每個(gè)數(shù)據(jù)中心中,可從世界上每家計(jì)算機(jī)公司獲得。它實(shí)際上無(wú)處不在。因此,通過(guò)使用這些庫(kù)中的一個(gè),你的軟件,你的驚人軟件可以觸及每個(gè)人。所以我們現(xiàn)在已經(jīng)達(dá)到了加速計(jì)算的臨界點(diǎn)。CUDA使這成為可能。"
06、未來(lái)產(chǎn)品路線(xiàn)圖:從Blackwell到Vera Rubin再到Feynman
黃仁勛詳細(xì)介紹了NVIDIA未來(lái)幾年的產(chǎn)品路線(xiàn)圖,這是NVIDIA首次如此清晰地展示其長(zhǎng)期技術(shù)發(fā)展計(jì)劃,讓客戶(hù)和合作伙伴能夠提前規(guī)劃他們的AI基礎(chǔ)設(shè)施投資。

"我們建設(shè)AI工廠和AI基礎(chǔ)設(shè)施需要數(shù)年的規(guī)劃。這不像買(mǎi)筆記本電腦。這不是可自由支配的支出。這是我們必須規(guī)劃的支出。所以我們必須規(guī)劃土地和電力,我們必須準(zhǔn)備好資本支出,我們需要工程團(tuán)隊(duì)。我們必須提前兩三年規(guī)劃好,這就是我為什么提前兩三年向你們展示我們的路線(xiàn)圖的原因。"
黃仁勛首先介紹了當(dāng)前已在生產(chǎn)中的Blackwell架構(gòu),然后宣布了即將在2025年下半年發(fā)布的Blackwell Ultra、2026年下半年推出的Vera Rubin以及2027年下半年的Rubin Ultra。
1. Blackwell Ultra (2025年下半年)
黃仁勛表示:"在2025年下半年,我們將輕松過(guò)渡到升級(jí)版。所以我們有Blackwell Ultra,NVLink 72。它的實(shí)驗(yàn)室是原來(lái)的1.5倍。它有一個(gè)用于注意力的新指令。它的內(nèi)存是原來(lái)的1.5倍。所有這些內(nèi)存都可用于KB緩存等。它的網(wǎng)絡(luò)帶寬是原來(lái)的2倍。"
2. Vera Rubin (2026年下半年)
這一架構(gòu)以發(fā)現(xiàn)暗物質(zhì)的天文學(xué)家Vera Rubin命名。黃仁勛在現(xiàn)場(chǎng)特別致敬了Rubin的貢獻(xiàn),她的孫子們也出席了演講。Vera Rubin架構(gòu)將帶來(lái)全新的CPU、GPU、網(wǎng)絡(luò)和內(nèi)存技術(shù),NVLink數(shù)量增加到144。

"Vera Rubin有兩個(gè)主要組件:一個(gè)稱(chēng)為Vera的CPU和一個(gè)稱(chēng)為Rubin的新GPU設(shè)計(jì),具有NVLink 144。Vera是NVIDIA的首款定制CPU設(shè)計(jì),它基于名為Olympus的核心設(shè)計(jì)。與Vera搭配使用時(shí),Rubin可以在進(jìn)行推理時(shí)實(shí)現(xiàn)每秒50千萬(wàn)億次浮點(diǎn)運(yùn)算,比Blackwell每秒20千萬(wàn)億次浮點(diǎn)運(yùn)算的速度高出一倍多。Rubin還可以支持高達(dá)288 GB的快速內(nèi)存。"
黃仁勛還澄清了一個(gè)命名上的變化:"Blackwell實(shí)際上是兩個(gè)獨(dú)立的芯片組裝在一起作為一個(gè)芯片工作。從Rubin開(kāi)始,當(dāng)將兩個(gè)或多個(gè)芯片結(jié)合成一個(gè)單一芯片時(shí),它會(huì)將這些芯片稱(chēng)為獨(dú)立的GPU。"
3. Rubin Ultra (2027年下半年)
這是一個(gè)更加驚人的規(guī)格,將提供NVLink 576極端擴(kuò)展能力,每個(gè)機(jī)架600千瓦,擁有250萬(wàn)個(gè)部件,計(jì)算能力達(dá)到15 exaFLOPS(是Blackwell的15倍),內(nèi)存帶寬達(dá)到4.6 petabytes/s(4,600 terabytes/s)。

"這是14倍更多的計(jì)算力,15 exaflops。從一個(gè)exaflop,正如我前面提到的,現(xiàn)在是15個(gè)exaflops擴(kuò)展的exaflops。它是300,什么,4.6 petabytes,所以是4,600 terabytes每秒的擴(kuò)展帶寬。我不是指聚合帶寬,我是指擴(kuò)展帶寬。當(dāng)然,還有全新的NVLink開(kāi)關(guān)和CX9。"
黃仁勛通過(guò)一個(gè)直觀的對(duì)比展示了從Hopper到Blackwell再到Rubin架構(gòu)的性能提升:Hopper是1x,Blackwell是68x,Rubin是900x。在TCO(總擁有成本)方面,Rubin將極大地降低成本,提高能效比。
最后,黃仁勛還透露,NVIDIA繼Rubin之后的下一代芯片將以物理學(xué)家Richard Feynman的名字命名,進(jìn)一步強(qiáng)調(diào)了NVIDIA對(duì)科學(xué)和創(chuàng)新的致敬。不過(guò)黃仁勛沒(méi)有透露更多細(xì)節(jié)。我們只知道Nvidia計(jì)劃于2028年的某個(gè)時(shí)候?qū)⑺葡蚴袌?chǎng),取代Rubin Vera。
07、硅光技術(shù)突破:實(shí)現(xiàn)百萬(wàn)GPU規(guī)模擴(kuò)展
黃仁勛展示了NVIDIA在硅光技術(shù)方面的重大突破,這將成為實(shí)現(xiàn)超大規(guī)模GPU連接的關(guān)鍵。他宣布了NVIDIA首個(gè)共封裝光子系統(tǒng)(co-packaged optics silicon photonic system),這是全球首個(gè)1.6Tb/s的CPO,基于微環(huán)諧振調(diào)制器(micro ring resonator modulator)技術(shù),與TSMC合作開(kāi)發(fā)。

黃仁勛通過(guò)一個(gè)生動(dòng)的實(shí)物演示,向觀眾展示了當(dāng)前光纖收發(fā)器的問(wèn)題:"這個(gè)(收發(fā)器)是30瓦。大批量購(gòu)買(mǎi)的話(huà),要1000美元。這是一個(gè)插頭。這一邊是電的,那一邊是光的。光線(xiàn)通過(guò)黃色部分進(jìn)入。你把這個(gè)插入交換機(jī),這邊是電的。有收發(fā)器、激光器,它是一種叫做馬赫-曾德?tīng)柕募夹g(shù),非常了不起。"

接著,他解釋了在大規(guī)模GPU集群中使用這些收發(fā)器的挑戰(zhàn):"如果我們有10萬(wàn)個(gè)GPU,我們將有10萬(wàn)個(gè)這種(收發(fā)器)在這一邊,然后另外10萬(wàn)個(gè)連接交換機(jī)到交換機(jī),然后另一邊我將其歸因于另一個(gè)網(wǎng)卡。如果我們有25萬(wàn)個(gè),我們會(huì)添加另一層交換機(jī),所以每個(gè)GPU,25萬(wàn)個(gè),每個(gè)GPU都會(huì)有6個(gè)收發(fā)器。每個(gè)GPU的這6個(gè)插頭將增加180瓦每個(gè)GPU,180瓦每個(gè)GPU,6000美元每個(gè)GPU。"
這種情況下,如果要擴(kuò)展到百萬(wàn)級(jí)GPU,會(huì)面臨巨大的功耗和成本挑戰(zhàn):"所以問(wèn)題是我們?nèi)绾螖U(kuò)展到數(shù)百萬(wàn)GPU?因?yàn)槿绻覀冇幸话偃f(wàn)個(gè)GPU乘以6,對(duì)吧,那將是600萬(wàn)個(gè)收發(fā)器乘以30瓦,180兆瓦的收發(fā)器。他們沒(méi)有做任何計(jì)算,他們只是移動(dòng)信號(hào)。所以問(wèn)題是我們?nèi)绾呜?fù)擔(dān)得起,正如我之前提到的,能源是我們最重要的商品。一切最終都與能源有關(guān),所以這會(huì)通過(guò)減去180兆瓦的功率來(lái)限制我們的收入,我們客戶(hù)的收入。"
為解決這一問(wèn)題,NVIDIA開(kāi)發(fā)了基于微環(huán)諧振調(diào)制器的硅光技術(shù)。黃仁勛展示了這項(xiàng)技術(shù)的原理:"有一個(gè)小波導(dǎo),你看那個(gè)波導(dǎo)連接到一個(gè)環(huán),那個(gè)環(huán)共振并控制波導(dǎo)在繞行時(shí)的反射率,調(diào)制通過(guò)的能量,光的量,它通過(guò)吸收關(guān)閉它或者讓它通過(guò)。好的?它將這個(gè)直接連續(xù)的激光束轉(zhuǎn)換成1和0,這就是奇跡。"
這項(xiàng)技術(shù)將被應(yīng)用于NVIDIA的下一代InfiniBand交換機(jī)和Spectrum X以太網(wǎng)產(chǎn)品中,使得交換機(jī)每個(gè)交換機(jī)可以支持512個(gè)端口,從而實(shí)現(xiàn)超大規(guī)模GPU集群的連接。黃仁勛表示,這項(xiàng)技術(shù)將在2025年下半年開(kāi)始應(yīng)用于InfiniBand交換機(jī),2026年下半年將應(yīng)用于Spectrum X交換機(jī)。
"在一個(gè)數(shù)據(jù)中心,我們可以節(jié)省數(shù)十兆瓦,數(shù)十兆瓦。比如說(shuō)10兆瓦,好吧,比如說(shuō)60兆瓦,6兆瓦是10個(gè)Rubin Ultra機(jī)架。6兆瓦是10個(gè)Rubin Ultra機(jī)架。60兆瓦,那是很多。100個(gè)Rubin Ultra機(jī)架的功率,我們現(xiàn)在可以部署到Rubin中。"
這項(xiàng)技術(shù)的突破性在于,它使NVIDIA能夠在交換機(jī)中實(shí)現(xiàn)共封裝光學(xué),無(wú)需收發(fā)器,直接將光纖連接到交換機(jī),每個(gè)交換機(jī)支持512個(gè)端口。這在以前是不可能實(shí)現(xiàn)的,而現(xiàn)在它使NVIDIA能夠擴(kuò)展到數(shù)十萬(wàn)乃至數(shù)百萬(wàn)GPU的規(guī)模。
08、企業(yè)AI基礎(chǔ)設(shè)施的革新:從計(jì)算到存儲(chǔ)
黃仁勛強(qiáng)調(diào),為了將AI帶入全球企業(yè),NVIDIA開(kāi)發(fā)了全新的企業(yè)級(jí)AI計(jì)算產(chǎn)品線(xiàn),從DGX工作站到服務(wù)器再到超級(jí)計(jì)算機(jī)。他展示了一臺(tái)DGX工作站,將其描述為"AI時(shí)代的計(jì)算機(jī)"。

"這就是PC應(yīng)該有的樣子。20 petaflops。難以置信。72個(gè)CPU核心。芯片到芯片接口。HBM內(nèi)存。以防萬(wàn)一,還有一些PCI express插槽給你的G-force。這被稱(chēng)為DGX工作站。DGX Spark和DGX工作站將由所有OEM提供?;萜铡⒋鳡?、聯(lián)想、華碩。它將為全球的數(shù)據(jù)科學(xué)家和研究人員制造。這是AI時(shí)代的計(jì)算機(jī)。"
黃仁勛指出,在AI時(shí)代,計(jì)算有三大支柱:計(jì)算、網(wǎng)絡(luò)和存儲(chǔ)。在網(wǎng)絡(luò)方面,NVIDIA的Spectrum X正在走向全球企業(yè),成為AI網(wǎng)絡(luò)的關(guān)鍵組成部分。
在存儲(chǔ)方面,黃仁勛宣布了一場(chǎng)存儲(chǔ)系統(tǒng)的革命。傳統(tǒng)的存儲(chǔ)系統(tǒng)主要基于檢索,而新一代存儲(chǔ)系統(tǒng)將基于語(yǔ)義理解和生成能力:
"存儲(chǔ)系統(tǒng)必須被完全重新發(fā)明。而不是基于檢索的存儲(chǔ)系統(tǒng),它將是基于語(yǔ)義的檢索系統(tǒng)?;谡Z(yǔ)義的存儲(chǔ)系統(tǒng)。因此,存儲(chǔ)系統(tǒng)必須在后臺(tái)持續(xù)嵌入信息。將原始數(shù)據(jù)嵌入到知識(shí)中,然后當(dāng)你稍后訪問(wèn)它時(shí),你不會(huì)檢索它。你只是與它交談。你問(wèn)它問(wèn)題。你給它問(wèn)題。在未來(lái),你將在每個(gè)企業(yè)中擁有類(lèi)似的東西。這就是未來(lái)的企業(yè)存儲(chǔ)。"
NVIDIA正與整個(gè)存儲(chǔ)行業(yè)合作,包括DDN、Dell、HP Enterprise、Hitachi、IBM、NetApp、Nutanix、Pure Storage、Vast和Weka等合作伙伴,首次將GPU加速引入存儲(chǔ)系統(tǒng)。
此外,NVIDIA還宣布了NIMS模型,這是一個(gè)完全開(kāi)源的企業(yè)就緒推理模型,可以在任何地方運(yùn)行——DGX Spark、DGX Station、OEM服務(wù)器或云端,并可集成到任何代理AI框架中。

黃仁勛快速展示了與NVIDIA合作構(gòu)建AI系統(tǒng)的眾多企業(yè)伙伴,包括Accenture、Amdocs、AT&T、BlackRock、Cadence、Capital One、Deloitte、ENY、Nasdaq、SAP和ServiceNow等。這些企業(yè)正在各自行業(yè)中利用NVIDIA技術(shù)構(gòu)建AI工廠和框架。
"在每一個(gè)例子中,都有NVIDIA模型、NVIDIA NIMS、NVIDIA庫(kù)集成在整個(gè)過(guò)程中。這樣你就可以在本地運(yùn)行它,在云中運(yùn)行,在任何云中。"
09、NVIDIA在自動(dòng)駕駛領(lǐng)域的進(jìn)展與Halos安全系統(tǒng)
黃仁勛轉(zhuǎn)向自動(dòng)駕駛領(lǐng)域,強(qiáng)調(diào)這是AI最早應(yīng)用的領(lǐng)域之一,NVIDIA已在此領(lǐng)域深耕十多年:"當(dāng)我看到AlexNet時(shí),那是一個(gè)如此鼓舞人心的時(shí)刻,如此令人興奮的時(shí)刻,它使我們決定全力投入到自動(dòng)駕駛汽車(chē)的建設(shè)中。所以我們現(xiàn)在已經(jīng)在自動(dòng)駕駛汽車(chē)上工作了十多年。"
他指出,NVIDIA為幾乎所有自動(dòng)駕駛汽車(chē)公司提供技術(shù)支持,無(wú)論是數(shù)據(jù)中心技術(shù)(如特斯拉在數(shù)據(jù)中心使用大量NVIDIA GPU)還是車(chē)載計(jì)算機(jī)(如Waymo和Wave在數(shù)據(jù)中心和車(chē)輛中都使用NVIDIA計(jì)算機(jī))。NVIDIA構(gòu)建了三種計(jì)算機(jī):訓(xùn)練計(jì)算機(jī)、模擬計(jì)算機(jī)和機(jī)器人計(jì)算機(jī)(自動(dòng)駕駛汽車(chē)計(jì)算機(jī)),以及所有基于它的軟件堆棧、模型和算法。

黃仁勛宣布與通用汽車(chē)(GM)的重要合作:"我很高興地宣布,通用汽車(chē)已選擇NVIDIA作為合作伙伴,與他們一起建設(shè)未來(lái)的自動(dòng)駕駛車(chē)隊(duì)。自動(dòng)駕駛汽車(chē)的時(shí)代已經(jīng)到來(lái)。我們期待與通用汽車(chē)在三個(gè)領(lǐng)域構(gòu)建AI:AI用于制造,使他們能夠徹底改變制造方式;AI用于企業(yè),使他們能夠徹底改變工作、設(shè)計(jì)汽車(chē)和模擬汽車(chē)的方式;然后還有AI用于車(chē)內(nèi)。所以這是為通用汽車(chē)提供的AI基礎(chǔ)設(shè)施,與通用汽車(chē)合作,為通用汽車(chē)構(gòu)建他們的AI。"
接著,黃仁勛展示了NVIDIA在汽車(chē)安全領(lǐng)域的創(chuàng)新——NVIDIA Halos,這是一個(gè)綜合安全系統(tǒng),將NVIDIA的汽車(chē)硬件和軟件安全解決方案與其在自動(dòng)駕駛安全領(lǐng)域的尖端AI研究結(jié)合在一起。
"安全需要從硅到系統(tǒng)再到系統(tǒng)軟件的技術(shù),算法,方法論,從多樣性到確保多樣性,監(jiān)控和透明度,可解釋性。所有這些不同的理念必須深深植根于你開(kāi)發(fā)系統(tǒng)和軟件的每一部分中。我們是世界上第一家,我相信,每一行代碼都經(jīng)過(guò)安全評(píng)估的公司。七百萬(wàn)行代碼經(jīng)過(guò)安全評(píng)估。我們的芯片,我們的系統(tǒng),我們的系統(tǒng)軟件和我們的算法都經(jīng)過(guò)第三方安全評(píng)估,他們檢查每一行代碼,以確保它的設(shè)計(jì)可以確保多樣性,透明度和可解釋性。"
Halos系統(tǒng)涵蓋三個(gè)不同但互補(bǔ)的層面:
1. 技術(shù)層面:涵蓋平臺(tái)、算法和生態(tài)系統(tǒng)安全。
2. 開(kāi)發(fā)層面:包括設(shè)計(jì)時(shí)、部署時(shí)和驗(yàn)證時(shí)防護(hù)措施。
3. 計(jì)算層面:涵蓋從AI訓(xùn)練到部署的整個(gè)過(guò)程,使用三臺(tái)強(qiáng)大的計(jì)算機(jī)——用于AI訓(xùn)練的NVIDIA DGX、在NVIDIA OVX上運(yùn)行的NVIDIA Omniverse和NVIDIA Cosmos用于模擬,以及用于部署的NVIDIA DRIVE AGX。
10、物理AI與機(jī)器人技術(shù):GROOT N1與Newton物理引擎
黃仁勛將演講的最后部分,聚焦于物理AI和機(jī)器人技術(shù),他強(qiáng)調(diào)機(jī)器人時(shí)代已經(jīng)到來(lái),并將成為一個(gè)巨大的產(chǎn)業(yè)。
"機(jī)器人的時(shí)代已經(jīng)到來(lái)。我們清楚地知道,世界面臨著嚴(yán)重的人類(lèi)勞動(dòng)力、人類(lèi)工人短缺。到本世紀(jì)末,世界將至少缺少5000萬(wàn)工人。我們非常樂(lè)意支付他們每人5萬(wàn)美元來(lái)工作。我們可能不得不支付機(jī)器人每年5萬(wàn)美元來(lái)工作。所以這將是一個(gè)非常非常大的行業(yè)。"
黃仁勛指出,機(jī)器人系統(tǒng)有多種形式:從工業(yè)基礎(chǔ)設(shè)施(倉(cāng)庫(kù)和工廠中數(shù)十億個(gè)攝像頭,全球1000-2000萬(wàn)個(gè)工廠)到已經(jīng)是機(jī)器人的汽車(chē),再到現(xiàn)在正在構(gòu)建的通用機(jī)器人。
NVIDIA宣布開(kāi)源全球首個(gè)人形機(jī)器人基礎(chǔ)模型GROOT N1,這是一個(gè)完全可定制的通用人形推理和技能基礎(chǔ)模型。黃仁勛表示:"通用機(jī)器人時(shí)代已經(jīng)到來(lái)。借助NVIDIA Isaac GR00T N1以及新的數(shù)據(jù)生成和機(jī)器人學(xué)習(xí)框架,世界各地的機(jī)器人開(kāi)發(fā)人員將開(kāi)拓AI時(shí)代的下一個(gè)前沿。"
GROOT N1是NVIDIA去年在GTC大會(huì)上推出的Project Groot的演進(jìn)版本。Project Groot面向工業(yè)用例,而GROOT N1將重點(diǎn)擴(kuò)大到各種不同外形的人形機(jī)器人。
GROOT N1基礎(chǔ)模型采用雙系統(tǒng)架構(gòu),靈感來(lái)自人類(lèi)認(rèn)知原理:
- "系統(tǒng)1"是一種快速思考的行動(dòng)模型,反映了人類(lèi)的反應(yīng)或直覺(jué)。
- "系統(tǒng)2"是一種慢速思考的模型,用于深思熟慮、有條不紊的決策。

在視覺(jué)語(yǔ)言模型的支持下,系統(tǒng)2可以推理其環(huán)境和收到的指令,從而規(guī)劃行動(dòng)。然后,系統(tǒng)1將這些計(jì)劃轉(zhuǎn)化為精確、連續(xù)的機(jī)器人動(dòng)作。系統(tǒng)1接受人類(lèi)演示數(shù)據(jù)和NVIDIA Omniverse平臺(tái)生成的大量合成數(shù)據(jù)的訓(xùn)練。
GROOT N1可以輕松實(shí)現(xiàn)常見(jiàn)任務(wù)(如抓取、用一只或兩只手臂移動(dòng)物體以及將物品從一只手臂轉(zhuǎn)移到另一只手臂),或者執(zhí)行需要長(zhǎng)時(shí)間上下文和一般技能組合的多步驟任務(wù)。這些功能可應(yīng)用于物料搬運(yùn)、包裝和檢查等用例。

黃仁勛還宣布了與DeepMind和迪士尼研究中心的合作,開(kāi)發(fā)名為Newton的開(kāi)源物理引擎。這一合作旨在解決物理AI面臨的核心挑戰(zhàn),尤其是在強(qiáng)化學(xué)習(xí)領(lǐng)域。
"就像我們之前談到的,語(yǔ)言模型今天令人難以置信的擴(kuò)展能力之一是可驗(yàn)證獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)。問(wèn)題是機(jī)器人技術(shù)中的可驗(yàn)證獎(jiǎng)勵(lì)是什么?正如我們非常清楚的那樣,它是物理定律,可驗(yàn)證的物理獎(jiǎng)勵(lì)。所以我們需要一個(gè)令人難以置信的物理引擎。"
黃仁勛解釋了,為何需要一個(gè)專(zhuān)門(mén)為機(jī)器人設(shè)計(jì)的高級(jí)物理引擎:"大多數(shù)物理引擎都是為各種原因設(shè)計(jì)的。它們可以被設(shè)計(jì)用于大型機(jī)械,或者可能是為虛擬世界、視頻游戲等設(shè)計(jì)的。但我們需要一個(gè)為非常精細(xì)的剛體和軟體設(shè)計(jì)的物理引擎,能夠訓(xùn)練觸覺(jué)反饋、精細(xì)運(yùn)動(dòng)技能和執(zhí)行器控制。我們需要它由GPU加速,這樣這些虛擬世界可以以超線(xiàn)性時(shí)間、超實(shí)時(shí)生活,并以難以置信的速度訓(xùn)練這些AI模型。我們需要它與全球機(jī)器人專(zhuān)家使用的框架和JOCO和諧地集成。"
Newton物理引擎基于NVIDIA Warp框架構(gòu)建,將針對(duì)機(jī)器人學(xué)習(xí)進(jìn)行優(yōu)化,并與Google DeepMind的MuJoCo和NVIDIA Isaac Lab等模擬框架兼容。此外,三家公司還計(jì)劃讓Newton使用迪士尼的物理引擎技術(shù)。
11、AI走進(jìn)各行各業(yè):從電信到醫(yī)療的應(yīng)用擴(kuò)展

黃仁勛強(qiáng)調(diào),AI正在進(jìn)入各行各業(yè),盡管全球范圍內(nèi)不同行業(yè)在平臺(tái)、需求以及其他方面存在諸多差異,NVIDIA正在通過(guò)多種方式推動(dòng)AI在全球范圍內(nèi)的應(yīng)用。
在電信領(lǐng)域,黃仁勛宣布NVIDIA與思科(Cisco)、T-Mobile和Cerberus ODC合作,在美國(guó)建立無(wú)線(xiàn)網(wǎng)絡(luò)全棧解決方案:"今天我們宣布,思科、NVIDIA、T-Mobile(全球最大的電信公司)、Cerberus ODC將在美國(guó)建立無(wú)線(xiàn)網(wǎng)絡(luò)的全棧。這將是第二個(gè)棧。全球資本投資每年1000億美元用于無(wú)線(xiàn)電計(jì)算機(jī)和為通信提供的所有數(shù)據(jù)中心。在未來(lái),毫無(wú)疑問(wèn),在我看來(lái),這將是融入AI的加速計(jì)算。AI將做得更好,遠(yuǎn)遠(yuǎn)更好地適應(yīng)無(wú)線(xiàn)電信號(hào),大規(guī)模MIMO,適應(yīng)不斷變化的環(huán)境和交通狀況。"
他指出,背景信息和先驗(yàn)知識(shí)是實(shí)現(xiàn)通信領(lǐng)域突破的關(guān)鍵:"當(dāng)我打電話(huà)回家時(shí),你不必說(shuō)那幾個(gè)詞,因?yàn)槲移拮又牢以谀睦锕ぷ?,那種情況是什么樣的。對(duì)話(huà)從昨天繼續(xù)。她記得我喜歡什么,不喜歡什么。通常,只需幾個(gè)詞。你交流了很多東西。原因是因?yàn)樯舷挛暮腿祟?lèi)先驗(yàn),先驗(yàn)知識(shí)。將這些能力結(jié)合起來(lái)可以徹底改變通信??纯此鼘?duì)視頻處理做了什么??纯次抑懊枋龅?D圖形。所以我們當(dāng)然會(huì)為邊緣做同樣的事情。"
在醫(yī)療領(lǐng)域,黃仁勛提到了MONAI庫(kù)的應(yīng)用,這是全球領(lǐng)先的醫(yī)學(xué)成像庫(kù),可以加速醫(yī)學(xué)圖像處理和分析。
在企業(yè)IT領(lǐng)域,他強(qiáng)調(diào)人工智能將徹底改變企業(yè)應(yīng)用,從數(shù)據(jù)存儲(chǔ)到數(shù)據(jù)處理方式。未來(lái),企業(yè)將擁有數(shù)字勞動(dòng)力——AI代理,這些代理將與人類(lèi)員工并肩工作:
"有10億知識(shí)工作者在世界各地。可能會(huì)有100億數(shù)字工作者與我們并肩工作。未來(lái)100%的軟件工程師,全球有3000萬(wàn),100%會(huì)得到AI輔助。我確信這一點(diǎn)。到今年年底,100%的NVIDIA軟件工程師將得到AI輔助。所以AI代理將無(wú)處不在。"
在金融服務(wù)領(lǐng)域,黃仁勛提到了與BlackRock和Capital One等公司的合作,這些公司正在利用NVIDIA技術(shù)構(gòu)建AI系統(tǒng)。
在設(shè)計(jì)和制造領(lǐng)域,他強(qiáng)調(diào)了與Cadence的合作:"未來(lái),我們不僅會(huì)雇傭ASIC設(shè)計(jì)師,我們還會(huì)從Cadence雇傭大量數(shù)字ASIC設(shè)計(jì)師來(lái)幫助我們?cè)O(shè)計(jì)芯片。"
黃仁勛的觀點(diǎn)清晰:AI將進(jìn)入每個(gè)行業(yè),無(wú)論是通過(guò)云服務(wù)、企業(yè)基礎(chǔ)設(shè)施還是嵌入式設(shè)備,而NVIDIA正在為這一轉(zhuǎn)變提供必要的技術(shù)和平臺(tái)支持。
12、總結(jié):AI時(shí)代的三大基礎(chǔ)設(shè)施
在演講結(jié)束時(shí),黃仁勛總結(jié)了NVIDIA正在構(gòu)建的三大AI基礎(chǔ)設(shè)施,這些基礎(chǔ)設(shè)施將支撐未來(lái)AI的發(fā)展和應(yīng)用:
"Blackwell已全面投產(chǎn)。客戶(hù)需求非常強(qiáng)勁,這是有充分理由的。因?yàn)锳I出現(xiàn)了一個(gè)拐點(diǎn),由于推理AI系統(tǒng)和推理AI系統(tǒng)的訓(xùn)練以及代理系統(tǒng),我們必須在AI中做的計(jì)算量要大得多。其次,搭載Dynamo的Blackwell NVLink 72的性能是Hopper的40倍。在未來(lái)十年,推理將成為最重要的工作負(fù)載之一,隨著我們擴(kuò)展AI。第三,我們?yōu)槟阋?guī)劃了年度路線(xiàn)圖,以便你可以規(guī)劃你的AI基礎(chǔ)設(shè)施。然后我們正在構(gòu)建三個(gè)AI基礎(chǔ)設(shè)施:云的AI基礎(chǔ)設(shè)施,企業(yè)的AI基礎(chǔ)設(shè)施,以及機(jī)器人的AI基礎(chǔ)設(shè)施。"
1. 云AI基礎(chǔ)設(shè)施:從Blackwell到Vera Rubin再到Feynman,NVIDIA提供了清晰的硬件路線(xiàn)圖,同時(shí)通過(guò)Dynamo等軟件優(yōu)化AI工廠的效率,使云服務(wù)提供商能夠大規(guī)模部署AI服務(wù)。
2. 企業(yè)AI基礎(chǔ)設(shè)施:通過(guò)DGX系列產(chǎn)品、Spectrum X網(wǎng)絡(luò)和革命性的語(yǔ)義存儲(chǔ)系統(tǒng),NVIDIA為企業(yè)提供了從計(jì)算到網(wǎng)絡(luò)再到存儲(chǔ)的完整AI棧,使企業(yè)能夠構(gòu)建自己的AI能力。
3. 機(jī)器人AI基礎(chǔ)設(shè)施:通過(guò)GROOT N1、Newton物理引擎和Omniverse平臺(tái),NVIDIA為下一代機(jī)器人提供了必要的技術(shù)基礎(chǔ),使機(jī)器人能夠理解物理世界并與之交互。

黃仁勛的演講展示了NVIDIA如何通過(guò)創(chuàng)新硬件、全棧軟件和廣泛的合作伙伴關(guān)系,應(yīng)對(duì)AI計(jì)算需求的爆發(fā)性增長(zhǎng),并構(gòu)建支持下一代AI應(yīng)用的基礎(chǔ)設(shè)施。從推理AI到代理AI再到物理AI,NVIDIA不僅在應(yīng)對(duì)當(dāng)前挑戰(zhàn),還在前瞻性地規(guī)劃未來(lái)的技術(shù)發(fā)展路徑。
黃仁勛在演講中強(qiáng)調(diào),現(xiàn)在是一個(gè)AI新時(shí)代的起點(diǎn),這個(gè)時(shí)代將由更智能的推理系統(tǒng)、更高效的AI工廠和更多樣化的應(yīng)用場(chǎng)景所定義。
熱門(mén)跟貼