你可能沒想到,一顆沒用上NVIDIA芯片的中國AI模型,竟然又讓美股科技板塊嚇出一身冷汗。
說的是DeepSeek R2。就在近期,關(guān)于它的最新爆料幾乎炸穿了整個科技圈:總參數(shù)量飆到1.2萬億,整整比R1翻了一倍,而且訓(xùn)練全程完全沒有用NVIDIA顯卡,靠的全是華為的昇騰910B。

這事兒真的不只是模型換了芯片這么簡單,它可能意味著,中國AI生態(tài),真的要走出自己的那條“去N化”路線了。
先說參數(shù),這次R2選擇了混合專家模型(MoE)架構(gòu),加上更智能的門控機制,能在處理大負載任務(wù)時,實現(xiàn)更細粒度的專家調(diào)度——不是胡堆參數(shù),而是讓每一次推理都更“聰明地用力”。哪怕參數(shù)量翻倍,單位推理成本依然暴降,這背后,是算力調(diào)度的質(zhì)變。

華為昇騰910B
具體降了多少?對標(biāo)一下GPT-4你就知道了:據(jù)稱,DeepSeek R2在推理環(huán)節(jié)的單位成本,相比GPT-4便宜了97.4%!這是什么概念?R2處理100萬個字符輸入只要0.07美元,輸出也就0.27美元。直接把AI從“天價神器”打成“平價工具”。
更炸裂的是,整個訓(xùn)練過程壓根沒碰NVIDIA的GPU。所有的核心算力,全交給了華為昇騰910B。這枚國產(chǎn)AI芯片的計算能力在FP16精度下能跑到512 PetaFLOPS,芯片利用率高達82%,整體表現(xiàn)達到了A100集群的91%。這已經(jīng)不是“能不能用”的問題了,而是國產(chǎn)芯片是否能真正“頂上去”的答案,已經(jīng)初步揭曉。
要知道,這可不是小打小鬧的實驗室試驗,而是實打?qū)嵉墓こ碳売?xùn)練部署。如果后續(xù)R2真的上線,意味著中美在AI訓(xùn)練體系上,可能第一次形成了“硬件體系并行發(fā)展”的局面。

放在當(dāng)下中美科技摩擦的大背景里,這個節(jié)點就更微妙了。NVIDIA的高端芯片出口已經(jīng)受到新一輪限制,美國AI廠商依賴芯片的那種“護城河”正被削薄。DeepSeek R2這種“芯片自主+成本打折”的新路線,會不會成為中國AI真正意義上的“突圍樣本”?我覺得,有這個可能。
當(dāng)然,現(xiàn)在的一切仍是爆料階段,還需要看DeepSeek R2真正面世后的表現(xiàn)。但有一點可以肯定:它的技術(shù)選型和國產(chǎn)化程度,正在傳遞一種非常明確的信號——中國不打算在AI底層算力上再等美國開綠燈了。

說回最開始那個問題:為什么DeepSeek R2能讓NVIDIA再次“顫一顫”?因為它不僅從成本上正面壓制了OpenAI的產(chǎn)品,還在算力上提供了一個去N化的替代路徑。而這,可能才是AI格局變動的真正開始。
你怎么看?你覺得華為的芯片,真的能撐得起中國AI的大模型嗎?歡迎評論區(qū)聊聊,我們一起拆這場大模型風(fēng)暴背后的國產(chǎn)力量。
熱門跟貼