機器之心報道
編輯:Sia
好消息!還記得「AutoGLM 沉思」嗎?短短 14 天、孵化出一個 5000 多個粉絲的小紅書賬號,還接到了商單!
相比 OpenAI 的 Deep Research , 「AutoGLM 沉思」不僅會想(deep research),還能邊想邊干( operator )!
今天,智譜宣布其核心技術鏈路完全開源!包括:
- 基座模型 GLM-4-32B-0414
- 推理模型 GLM-Z1-32B-0414
- 沉思模型 GLM-Z1-Rumination-32B-0414
另外,小尺寸的 9B 系列同時開源,包括:GLM-4-9B-0414、GLM-Z1-9B-0414 。
以上均遵循 MIT 許可協(xié)議。
目前,系列所有模型可以通過 z.ai 訪問體驗。新版基座模型和推理模型已同步上線智譜 MaaS 平臺。
體驗鏈接:https://chat.z.ai/
https://bigmodel.cn/
作為國內最早開源大模型的人工智能公司,智譜一直致力于推動 AI 普惠。隨著開源生態(tài)建設成為新一輪競爭焦點,智譜曾表示 2025 年將成為智譜的開源年,持續(xù)加碼生態(tài)建設。
開源頂尖模型,兩種尺寸
新一代基座模型 GLM-4-32B-0414 以 32B 參數(shù)量比肩更大參數(shù)量主流模型性能。
由于預訓練階段加入了更多代碼類、推理類數(shù)據(jù),并在對齊階段針對智能體能力進行了優(yōu)化,它有著行業(yè)最好的行動能力,在工具調用、聯(lián)網(wǎng)搜索、代碼等智能體任務方面更加有效。
GLM-4-32B-0414 支持在對話過程中實時展示生成代碼,支持包括 HTML、CSS、JS 和 SVG 在內的語言。無需切換到其它程序,用戶一鍵點擊即可在對話窗口實時看到代碼運行結果,以便進行靈活的修改與調整。

同步開源的 GLM-Z1-32B-0414 推理模型則創(chuàng)造了 「以小博大」的典范。
它基于新一代基礎模型、在預訓練階段加入了更多推理類數(shù)據(jù)并在對齊階段深度優(yōu)化了通用能力,320 億參數(shù)量即可實現(xiàn)滿血版 DeepSeek-R1( 6710 億參數(shù))的推理性能。
在AIME 24/25 、LiveCodeBench 、GPQA 等基準測試中展現(xiàn)出較為強大的數(shù)理推理能力,比肩滿血版 DeepSeek-R1,可以勝任更多復雜任務。

除了推理性能,成本也是一大亮點。得益于優(yōu)化 GQA 參數(shù)、量化、投機采樣等技術,該推理模型能夠在消費級顯卡上流暢運行,同時實現(xiàn)每秒 200 token 的極速響應,相當于人類語速的 50 倍,做到了 「問題未看清,答案已生成」的極致體驗。
GLM-Z1-Rumination-32B-0414沉思模型代表了新一代AI的發(fā)展方向。相比之前仍停留在深度思考階段的推理模型,這個經過強化學習訓練的版本展現(xiàn)出更強的自主能力。
它不再局限于靜態(tài)知識推理,而是能夠像人類研究者一樣主動聯(lián)網(wǎng)搜索資料、調用各種工具、進行深度分析并自我驗證,形成完整的思考閉環(huán)。這種 「實時搜索-深度分析-動態(tài)驗證」的循環(huán)思考模式,讓 AI 在處理開放性問題時更加游刃有余,標志著 AI 從單純的高智商向高智商與高自主并重的轉變。
當然,作為前沿技術,該模型在自主探索和準確性方面仍有提升空間,研發(fā)團隊正在持續(xù)優(yōu)化中。
最后,GLM-Z1-9B-0414 是一個驚喜。
盡管尺寸更小,GLM-Z1-9B-0414 在數(shù)學推理和通用任務中依然展現(xiàn)出極為優(yōu)秀的能力,其整體表現(xiàn)已處于同尺寸開源模型中的領先水平。

特別是在資源受限的場景下,該模型在效率與效果之間實現(xiàn)了出色的平衡,為追求輕量化部署的用戶提供了強有力的選擇。
面向企業(yè)服務:最快、最便宜
智譜核心還是在向企業(yè)提供模型即服務(MaaS),重點在于服務。目前,智譜已有 1000 多個大模型規(guī)?;瘧?,覆蓋傳媒、咨詢、消費、金融、新能源、互聯(lián)網(wǎng)、智能辦公等多個細分場景的多個頭部企業(yè)。
現(xiàn)在,基座、推理兩類模型也已同步上線智譜 MaaS 開放平臺,面向企業(yè)與開發(fā)者提供 API 服務,滿足用戶多快好省的需求。
其中,推理模型有三個版本,針對不同業(yè)務場景需求。
- GLM-Z1-AirX(極速版)
- 定位國內最快推理模型,推理速度可達 200 tokens/秒,比常規(guī)快 8 倍;適合高并發(fā)、極速響應業(yè)務場景。
- GLM-Z1-Air(高性價比版)
- 價格僅為 DeepSeek-R1 的 1/30,適合高頻調用場景;算得上國內最高性價比的推理模型。
- GLM-Z1-Flash(免費版)
- 支持免費使用,旨在進一步降低模型使用門檻。


GLM-Z1-AirX(極速版)響應速度

視頻鏈接:
https://mp.weixin.qq.com/s/kPAIeYwIAqyIPf1585jR-w
RI 響應速度
對應價格表:

上線的基礎模型包括兩個版本:GLM-4-Air-250414、GLM-4-Flash-250414,其中 GLM-4-Flash-250414 完全免費。
本地部署,旗艦級配置需要 1 張 H100/A100 顯卡,高性能配置則需要 4 張 4090/3090 系列顯卡。
對于選擇在線體驗的用戶,則可以通過 MaaS 平臺獲得極速或性價比版本的服務,同時也能體驗完整的 Deep Research 功能。
全球用戶:完整體驗,免費享
對于想要完整體驗模型能力的玩家們,即日起 App 與網(wǎng)頁端登錄z.ai,即可與最新的 GLM 模型免費對話。
這里集合了沉思模型、推理模型、對話模型,后續(xù)也將作為智譜最新模型的交互體驗入口。
網(wǎng)頁體驗鏈接:https://chat.z.ai/

因為對標 Open AI 的 Deep Research,我們先簡單體驗了一下沉思模型的深度調研能力。
既然衛(wèi)生巾都塌房了,女性如何選擇安全可信的衛(wèi)生用品呢?
輸入問題后,模型開始上網(wǎng)找新聞、看報告,閱讀做筆記,按照搞清事實、各種標準、如何辨別、選擇的邏輯組織內容。

幾分鐘過后,自動生成一份詳細指南。

視頻鏈接:
https://mp.weixin.qq.com/s/kPAIeYwIAqyIPf1585jR-w
沉思模型更適合做深度調研,追求強大的開發(fā)體驗,不妨試試基礎模型。
例如:給我設計一個移動端機器學習平臺的 UI,其中要包括訓練任務,存儲管理,和個人統(tǒng)計界面。個人統(tǒng)計界面要用圖表展示用戶過去一段時間的各類資源使用情況。使用 Tailwind CSS 來美化頁面,把這 3 個手機界面平鋪展示到一個 HTML 頁面中。
不過,用 svg 展示一只騎自行車的鸕鶿,還是失敗了。
還等啥,現(xiàn)在就去體驗吧。

熱門跟貼