DeepSeek橫空出世,一下子讓更多的小伙伴有機會接觸到高規(guī)格的人工智能助手,但也體驗到了無數(shù)次“服務(wù)器繁忙,請稍后再試”的無奈等待。既然現(xiàn)在AI PC概念這么火熱,那么有沒有一種可能,在輕薄型筆記本上就可以部署DeepSeek,告別服務(wù)器繁忙的煩惱?還別說,包括DeepSeek在內(nèi)的諸多大模型開源的特性足以讓其在AI PC上運行,特別是蒸餾后的14B乃至32B大模型,在離線狀態(tài)暢快玩轉(zhuǎn)人工智能助手也沒有壓力。

現(xiàn)在不妨讓我們以采用酷睿Ultra 200H(Arrow Lake-H)的輕薄型筆記本為例,僅憑一臺輕薄本,是如何輕松完成DeepSeek本地部署的。

打開網(wǎng)易新聞 查看精彩圖片

輕松配置DeepSeek

本地大模型部署,少不了先提到Ollama。Ollama作為開源的輕量級架構(gòu),可以在AI PC上輕松的構(gòu)建、運行和管理大語言模型(LLM)。由于Ollama允許完全本地部署,無需依賴外部服務(wù)器或者云端,因此在數(shù)據(jù)保護上更具有隱私性和安全性。

打開網(wǎng)易新聞 查看精彩圖片

而如果要Ollama流暢地在輕薄型筆記本上運行,IPEX-LLM是一個重要的途徑之一。IPEX-LLM完整稱呼是Intel LLM Library for PyTorch,顧名思義,是英特爾開發(fā)的一個開源的大語言模型(LLM)加速庫,旨在優(yōu)化英特爾CPU、GPU、NPU上的LLM推理和微調(diào)性能。換而言之,使用英特爾酷睿Ultra平臺的PC會更占據(jù)優(yōu)勢。

這時候,再通過IPEX-LLM Ollama加載DeepSeek,

打開網(wǎng)易新聞 查看精彩圖片

安裝IPEX-LLM Ollama的方式非常簡單,安裝步驟只有三步,下載解壓,啟動Ollama服務(wù),啟動Ollama,大功告成。

在魔搭社區(qū)ipexllm/ollama-ipex-llm就能看到專門的IPEX-LLM Ollama安裝頁面,這套基于IPEX-LLM的Ollama英特爾優(yōu)化版已經(jīng)針對11代到14代酷睿,酷睿Ultra系列,以及英特爾Arc A系列和B系列GPU優(yōu)化。

打開網(wǎng)易新聞 查看精彩圖片

因此在正式安裝之前,筆者建議前往英特爾官網(wǎng)更新一下對應(yīng)的驅(qū)動,比如酷睿Ultra 200H系列的iGPU,或者剛發(fā)布沒多久的英特爾Arc B580,都需要最新驅(qū)動的支持。

打開網(wǎng)易新聞 查看精彩圖片

言歸正傳。按照教程提示,將下載好后的Ollama解壓到一個文件夾中,運行文件夾中的start-ollama.bat啟動Ollama Serve,彈出的窗口不要關(guān)閉,通過cmd命令提示符窗口在解壓縮的文件夾中運行Ollama即可。執(zhí)行命令如下:

.\ollama run deepseek-r1:7b

這時候就會看到Ollama開始下載對應(yīng)的DeepSeek模型,完成后,即可進入對話模式。

打開網(wǎng)易新聞 查看精彩圖片

純文字界面當然還差點意思,后續(xù)我們還可以通過ChatBox AI客戶端,或者Edge瀏覽器插件,安裝之后,客戶端或者插件就會自動檢測到之前安裝的Ollama Serve,不需要更多的設(shè)置,就能獲得更直觀的交流界面,對話的方式也能幫助你獲得更多與DeepSeek交流的靈感。

打開網(wǎng)易新聞 查看精彩圖片

一步到位的Flowy

如果你覺得前面通過Ollama-IPEX-LLM三步走的方式仍然麻煩,這里還有一招更厲害的,即通過Flowy AIPC一步到位獲得DeepSeek。這里只需要進入Flowy AIPC官網(wǎng),下載安裝程序,登陸,就可以一氣呵成獲得一套完整的人工智能對話界面。

打開網(wǎng)易新聞 查看精彩圖片

最新版的Flowy已經(jīng)集成DeepSeek-V3、DeepSeek-R1、GLM-4-Flash、豆包模型。

打開網(wǎng)易新聞 查看精彩圖片

在模型市場本地模型中,你會發(fā)現(xiàn)Flowy已經(jīng)幫你全部一口氣部署好了。

打開網(wǎng)易新聞 查看精彩圖片

性能如何?

Arrow Lake-H酷睿Ultra 200H系列則是定位主流標壓筆記本,使用的Lion Cove P-Core和Skymont E-Core,相對上一代Meteor Lake-H在單線程和多線程性能上提升15%,并配備了Xe iGPU,除了最入門的版本之外,剩下的型號均配備Xe-LPG核顯。由于酷睿Ultra 200H內(nèi)置了11 TOPS的NPU,配合iGPU的77 TOPS和CPU的11 TOPS,可以達到99 TOPS的AI性能。

其中旗艦版本的酷睿Ultra 9 258H,擁有6個P-Core,8個E-Core和2個LP E-Core,總共擁有16個線程,得益于架構(gòu)和IPC升級,在相同能耗的前提下性能是有所提升,同時也能讓輕薄型筆記本在獲得足夠性能的同時,續(xù)航變得更長。在實際使用中,酷睿Ultra 200H的輕薄本續(xù)航明顯優(yōu)于酷睿Ultra 100H。

打開網(wǎng)易新聞 查看精彩圖片

回到主題。得益于酷睿Ultra 200H對DDR5-6400和LPDDR5x-8400內(nèi)存的支持,酷睿Ultra 200H輕薄本不僅默認使用的內(nèi)存頻率高,容量也動輒32GB,分給Xe-LPG核顯調(diào)用的內(nèi)存也更多,用來運行DeepSeek-R1:8B模型已經(jīng)很輕松。

這里以酷睿Ultra 7 255H核顯Arc 140T為例,通過DeepSeek-R1:8B模型描述“什么是AI PC”。這時候核顯計算利用率達到100%,生成速度大概在15 tokens/s到20 tokens/s之間,在體感上已經(jīng)與我們打字對話的速度上差不多了。

同樣,如果運行Moonlight-16B-A3B模型進行數(shù)學(xué)公式計算或者詩詞生成,生成速度也可以做到42 token/s上下,比兩周前的19 token/s有了跨越式的進步,由此可見酷睿Ultra 200H運行大模型的潛力。

寫在最后:一步到位的AI體驗

從體驗來看,采用酷睿Ultra 200H的輕薄型筆記本已經(jīng)能夠很好的離線運行DeepSeek-R1:8B模型,比如飛機上,信號不好高鐵路段,筆記本離線就能充當起不錯的助手作用。原本需要聯(lián)網(wǎng)或者高性能臺式機上才能實現(xiàn)的AI生成工作,現(xiàn)在一臺基于Arrow Lake-H的酷睿Ultra 200H輕薄本就能完成。

原本在線服務(wù)總是繁忙的DeepSeek-R1,現(xiàn)在僅通過簡單的三步配置,就能在酷睿Ultra 200H輕薄本上完成部署。英特爾早已搭建好的Ollama+IPEX-LLM環(huán)境,在這個應(yīng)用場景中立了大功。

打開網(wǎng)易新聞 查看精彩圖片

這是一套由英特爾搭建,基于酷睿Ultra系列生態(tài)環(huán)境,通過諸如Flowy AI PC助手這樣的便捷應(yīng)用,可以一鍵部署7B到14B的DeepSeek本地大模型,并且功能非常豐富?,F(xiàn)在酷睿Ultra 200H輕薄本配合國補價格已經(jīng)可以來到5000元價位檔,這讓原本硬件和使用技巧都要求頗高的大模型應(yīng)用,現(xiàn)在變得唾手可得。如果你想在近期獲得一個高智商且能離線運行的AI助手,購置一款酷睿Ultra 200H輕薄本就是一個很不錯的解決方案。