Llama 4 發(fā)布,最猛是達到了1000萬上下文長度!但是不要對模型能力抱太大希望,有點拉跨只能說
開個帖子記錄一下詳細信息:
Llama 4 Scout:
17B活躍參數(shù)的 16 位專家MoE模型,1000 萬上下文窗口,僅需單個 NVIDIA H100 GPU 可運行
Llama 4 Maverick:
17B活躍參數(shù)的128 位專家MoE模型,LLM競技場得分最高的開源模型,支持圖像多模態(tài)識別
另外還有Llama 4 Behemoth:
- 288B活躍參數(shù),16 位專家MoE模型
- 在多項 STEM 基準測試中超越了 GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro
- 總參數(shù)超過了 4T!
- 目前仍在訓(xùn)練
lama 4 Maverick 17B active 在 M3 Ultra 上的速度是50Token /秒
Llama 4 Scout 和 Maverick 現(xiàn)已在 OpenRouter 上推出,而且有免費版本
Groq 上的 Llama 4 Scout 運行速度是 511 Token 每秒,同時可以用 API 白嫖
Llama 4 Maverick 在LLM競技場總榜第二,開源LLM第一
- 排名第一的開放模型,超越 DeepSeek
- 在硬性提示、編碼、數(shù)學(xué)、創(chuàng)意寫作中并列第一
- 大幅超越 Llama 3 405B: 1268 → 1417
- 風(fēng)格控制排名第五
詳細信:ai.meta.com/blog/llama-4-multimodal-intelligence/

打開網(wǎng)易新聞 查看精彩圖片

打開網(wǎng)易新聞 查看精彩圖片

打開網(wǎng)易新聞 查看精彩圖片

打開網(wǎng)易新聞 查看精彩圖片

打開網(wǎng)易新聞 查看精彩圖片
熱門跟貼