
在我看來,2025年絕對能稱得上是中文大模型的顛覆之年。
DeepSeek的橫空出世,不僅打破了英偉達主導的“算力決定一切”的刻板印象,也打破了美國在大模型領域的長期主導地位,甚至一度挑起了全球大模型領域的價格戰(zhàn),讓更多的人能夠體驗到大模型帶來的樂趣。
至少從抖音、快手上的反應來看,對普羅大眾而言,DeepSeek的出現(xiàn)確實把“人工智能”這樣一個遙不可及的概念帶到了人們身邊。
哪怕是我這個浸淫大模型兩年半的雷科技練習生,在過年期間不僅沒少給身邊的父母親戚介紹這DeepSeek到底是什么,自己也是時不時就拿起手機來玩一下,沒辦法,能在不要錢的基礎上提供這種問答質(zhì)量的中文大模型,目前也就DeepSeek能做到了。
要說有什么問題嘛,還得是這服務器的問題了。

特別是我這邊發(fā)出請求,然后看著DeepSeek在那里轉個半天,最終卻只能憋出個“服務器繁忙,請稍后再試”的時候,那種挫敗感是真的難受,讓人迫切想要在本地部署一個屬于自己的DeepSeek推理模型。
問題就出在成本上,按照常理來說,想要購入一臺能在本地運行大模型的設備,那要不就是售價在5000元以上的AI PC筆記本,要不就得自己著手去裝配一臺搭載獨立顯卡的整機,不管哪個選擇對普通消費者來說都不夠友好。
不過將預算壓縮到極致,然后搭配出一套「能用」的主機,正是每一位DIY玩家的終極樂趣,而這給我?guī)淼奶魬?zhàn)就是,如果真的想弄一臺可以本地運行DeepSeek模型的電腦,到底需要多少錢?
我的答案是,400元。
盡管近期正經(jīng)的內(nèi)存和硬盤有價格上漲的趨勢,但是在洋垃圾這邊其實價格變化倒是不大,甚至一批早年的洋垃圾CPU和礦卡GPU還有價格下跌的趨勢。在如今大模型潮流席卷而來的背景下,我甚至不準備拘泥于辦公影音需求,決定挑戰(zhàn)一下用四百塊錢的預算,試著去打造出一套性價比頗高的入門級本地大模型主機。
至于具體應該怎么操作,最終成效是否如意,跟著我一起看下去自然就知道了。
越陳越香的洋垃圾
既然說了要在400塊內(nèi)搞定,那么如何在盡量低的價錢內(nèi)完成整機的裝配就變得至關重要了。
在CPU的選擇上,我直接從PDD上撿了一顆Intel? Core?i3-4170,售價22元。
該處理器為二核四線程,3.7GHz主頻,沒有睿頻能力,具備3MB智能緩存,采用22nm制程工藝的Haswell架構,而它最大的特點就是擁有一顆HD4400核顯,這也是我選擇它的關鍵。
(圖源:PDD)
俗話說得好,低價U配低價板嘛。
所以主板的話,我就選擇購入了一塊銘瑄MS-H81M Turbo,只有兩根DDR3內(nèi)存插槽不說,甚至都沒有HDMI輸出接口,也沒有M2硬盤位,USB 3.0、SATA III接口都只有兩個,但是它在PDD上面只要79塊錢。
這加起來僅需100左右的板U套裝,性價比放在今時今日也是出類拔萃的。

(圖源:雷科技)
這種CPU,散熱就不用太擔心了。
PDD上面14.9包郵寄過來的雙熱管風冷散熱器,雖然外觀上是丑了一點,簡陋了一點,但是用來壓我這一套超低價配置肯定是綽綽有余了。

(圖源:雷科技)
至于顯卡嘛,近期閑魚上面流出了一大堆P106-090和P106-100礦卡,其中前者的價格普遍在70塊錢左右,后者的價格普遍在120-140塊錢左右。
兩者之間最大的差別在顯存上,P106-090僅有3GB顯存,而P106-100則有6GB顯存,盡管我這次的初衷并不是為了游戲而來,但是更高的顯存規(guī)格確實可以運行更高效的本地大模型,所以我最終還是拿下了一張技嘉的P106-100,售價130元。

(圖源:雷科技)
最后,給它簡單配上兩根雜牌DDR3內(nèi)存,組成內(nèi)存雙通道,用一個300W長城電源供電,一塊120GB SATA SSD做系統(tǒng)盤,用上次裝機剩下來的大水牛硅脂湊合湊合,最后再配上個20塊錢的電腦城小機箱...
完成!請欣賞一下我用四百元裝機的成果吧。

(圖源:雷科技)
然后是我給出的參考價格表,感興趣的大伙也可以試著照這張表格上的配置自己配一下,總之價格上不會差太多。
你要是更追求性價比的話,甚至把機箱換鞋盒也不是什么大問題。

(圖源:雷科技)
裝機完成,點亮主機!
先做個簡單的性能測試,作為多年服役的老將,Intel? Core?i3-4170的性能也就那樣,即便是在用TrottlesStop解鎖功耗的情況下,也就差不多相當于移動端酷睿六代、酷睿七代處理器的水平。

(圖源:雷科技)
在實測環(huán)節(jié)中,CPU-Z測試單核跑分有373.4分,多核跑分有1025.2分,在CINEBENCH測試標準下,CINEBENCH R20多核824cb、單核346cb,CINEBENCH R23多核1914cb、單核905cb。
亮眼肯定是不夠亮眼,但是拿來日常辦公、輕度娛樂倒是夠了。

(圖源:雷科技)
再看看GPU部分,我手上這張技嘉P106-100采用16nm工藝打造,顯卡核心為GP106,核心頻率為1506MHz,可提升到1709MHz,具有1280個著色單元,支持DirectX12,顯存規(guī)格為6144MB/192Bit GDDR5內(nèi)存,顯存頻率可達2002MHz。
在測評DX11性能的Fire Strike測試中,P106-100在Extreme測試中取得了6490分的圖形分數(shù);在測評DX12性能的TimeSpy測試中,P106-100在基本測試中取得了4428分的圖形分數(shù)。


(圖源:雷科技)
這個性能表現(xiàn)和GTX1060差不多,甚至能和移動端RTX 3050碰一碰了。
存儲方面,我們斥資40元購入的這塊雜牌128GB SATA SSD硬盤,順序讀寫速度達到505.24MB/s和369.63MB/s,隨機4K讀寫達到132.06MB/s和246.55MB/s,雖然和M2 SSD硬盤沒得比,但是作為系統(tǒng)啟動盤肯定是綽綽有余了。

(圖源:雷科技)
至于這對雙通道的DDR3內(nèi)存,使用AIDA64進行內(nèi)存緩存測試,測得的讀取速度為18557MB/s,寫入速度為19889MB/s,復制速度為17914MB/s,延遲為67.2ns,給這臺電腦用可以說是剛剛好。

(圖源:雷科技)
百元機,用上DeepSeek
既然目的是在幾百塊錢的預算下,打造出一套可用的本地DeepSeek主機,那么體驗肯定是我們最關注的一環(huán)。
首先,要說真正的DeepSeek-R1,那便只有一個版本,即671B的原始版本,其中包含大量的參數(shù),推理精度確實高,但需要大量計算資源,而且顯存至少為1342GB。

(圖源:HuggingFace)
這顯然是P106-100承受不起的,也沒有哪張消費級顯卡能承擔得起就是了,官方推薦的方法是用16張NVDIA-A100 80GB顯卡,或者是組成Mac電腦集群,用高速度的統(tǒng)一內(nèi)存去跑。
像我們這種消費級顯卡,就只能用“蒸餾模型”。
所謂蒸餾模型,可以看成“老師教學生”,通過知識蒸餾,教更精簡的模型學會復制較大模型的行為,擴充性能,減少資源需求,而用DeepSeek-R1蒸餾的話,主要就是給這些模型加入“深度推理”的概念。
再降低一下模型精度,就能看到我們能夠部署的蒸餾模型。

(圖源:HuggingFace)
然后根據(jù)Unsloth提供的報告,DeepSeek-R1-Distil-Qwen-7B是符合需求的蒸餾模型中表現(xiàn)最出色的,各方面測試成績均超越了理論參數(shù)更多的DeepSeek-R1-Distil-Llama-8B。
那么我們今天要部署的,自然就是DeepSeek-R1-Distil-Qwen-7B。

目前想在PC本地部署DeepSeek有兩種辦法,其中最常見的應該是Ollama+Chatbox AI的組合。
所謂Ollama,其實就是一款比較流行的本地大模型服務端工具,部署起來也很簡單,只要在Ollama官網(wǎng)搜索DeepSeek-r1,下面就會有不同大小的蒸餾模型渲染,然后搭配客戶端啟動就行了。

(圖源:Ollama)
安裝后,Ollama一般就在本地的11434端口開啟服務了,但此時你只能在終端中進行交互,但是要獲得像DeepSeek官網(wǎng)一樣的體驗,還是需要額外的前端客戶端才行。
而Chatbox AI,就是最常見的一款前端產(chǎn)品。
不同于服務端的純文字內(nèi)容展示,Chatbox AI將大部分設置、功能進行了圖形化,使用戶的體驗更加直觀,而且這款產(chǎn)品支持眾多本地AI模型和API接口,自然也可以使用本地Ollama 11434端口的服務。
接入之后,大概就是這個樣子。

(圖源:雷科技)
你可以在Chatbox AI定義自己想要交互的模型人設,
但要論角色扮演的話,第二種部署方法或許會更適合一點。
為你介紹Koblodcpp,這是一款整合Koblod.AI界面的llamacpp啟動程序,可以運行目前外網(wǎng)流行的GGUF格式本地大模型,甚至可以整合語音大模型和繪圖大模型,實現(xiàn)在對話的同時,生成語音和對應場景的效果。
只要在HF-Mirror下載對應的大模型,然后就能用Koblodcpp啟動了。

(圖源:雷科技)
使用Koblodcpp,你就可以加載通用格式的角色卡,實現(xiàn)和各種不同的角色對話交流的獨特體驗。
如果這還不夠,你還能夠借助Koblodcpp的端口部署SillyTarven,后者是目前全網(wǎng)公認的最好用的大模型角色扮演前端,能夠幫助用戶實現(xiàn)對話邏輯的定義,對用戶自身人設的定義,加載補充世界觀的Lorebook和載入圖片、動圖以及互動代碼來完善角色扮演體驗。
甚至...可以讓DeepSeek實現(xiàn)破限,做到一些云端大模型做不到的事情。
簡單介紹完部署方法后,接下來就該進入實測環(huán)節(jié)了。
用一些常規(guī)問題和它進行交互,就能看到詳細的推理過程,應付一些正經(jīng)的初高中語文、數(shù)學、英語問題,本地部署的DeepSeek體驗起來還是不錯的。


(圖源:雷科技)
詢問一些關公戰(zhàn)秦瓊的問題,文學創(chuàng)作能力看起來也不賴。

(圖源:雷科技)
不過在比較復雜的數(shù)學、邏輯難題里,本地部署的DeepSeek表現(xiàn)就比較一般了,有不少邏輯推理題甚至會出現(xiàn)算不出答案的情況。

(圖源:雷科技)
因為沒有聯(lián)網(wǎng)的緣故,目前本地部署的DeepSeek模型的知識庫是截至2023年的,沒有比較新鮮的素材,因此一些有時效性的問題自然無法作答。

(圖源:雷科技)
至于速度的話,在限制回復長度為1024代幣的情況下,應付一道高中數(shù)學題的思考過程為127s(即兩分鐘)左右,這個速度和原版DeepSeek之間差別不大,深度思考的特性讓本地和云端的體驗大大拉近。

(圖源:雷科技)
當然了,因為思考太長的原因,本地部署的DeepSeek確實就不大適合聊天用了,喜歡聊天的建議更換Casuallm大模型進行體驗。
總結:低配置也能跑,但穩(wěn)定性欠佳
優(yōu)點:
1、成本預算低廉;
2、確實能運行本地大模型。
缺點:
1、二手零部件無保障;
2、礦卡驅動非常容易掉,白屏問題時有發(fā)生。
論性能,這款預算不到400元的電腦主機其實還不錯。
盡管CPU規(guī)格老舊、礦卡表現(xiàn)不穩(wěn)定,但是這臺廉價主機確實能完成DeepSeek本地大模型的部署,在組裝完成后的這段時間里,它一度成為公司局域網(wǎng)內(nèi)部的AI終端,還可以部署本地AI繪圖等一系列能力,算是實至名歸的AI PC。
雖然沒有具體測試,但是近4500分的TimeSpy圖形分,即便是《孤島驚魂6》這樣的3A大作,這款機子也能在FHD低畫質(zhì)下保證60幀穩(wěn)定運行,應付《英雄聯(lián)盟》這類網(wǎng)游應該是綽綽有余的,也可以當一臺入門的游戲主機來用。

說是這么說,問題當然還是有的。
先說這臺機子,為了搞好這臺機子我也是前后折騰了半天。P106-100這張礦卡多次出現(xiàn)掉驅動導致電腦白屏,需要用DDDU卸載驅動再重裝的情況,至于那個二手電源后面直接癱瘓了,還得去PDD上面扯皮商家才肯換貨。
目前閑魚上面還有不少和我組裝起來的這臺機子配置類似的洋垃圾整機,售價普遍在350-400元左右,目標受眾很明顯是剛上大學或者走出社會的年輕群體,個人建議大伙別去購買這些產(chǎn)品,一分錢一分貨可不是開玩笑的。
再說說DeepSeek,目前市面上所有的本地DeepSeek部署教程,包括我們在內(nèi),實際上部署的都是經(jīng)過DeepSeek蒸餾的通義千問模型,回答一些基礎問題,簡單測試深度思考還行,復雜一點的邏輯思考能力,這本地部署的版本和全參數(shù)的版本之間的差別可不是一星半點。
只能說,真要想追求不卡的全參數(shù)DeepSeek體驗,整個API接口可能是更加合理的方法。

熱門跟貼