在周二舉行的首屆 LlamaCon AI 開(kāi)發(fā)者大會(huì)上,Meta 宣布了其 Llama 系列 AI 模型的 API:Llama API。據(jù) Meta 稱(chēng),Llama API目前處于有限預(yù)覽階段,允許開(kāi)發(fā)者探索和試驗(yàn)基于不同 Llama 模型的產(chǎn)品。

與 Meta 的 SDK 配合使用,它允許開(kāi)發(fā)者構(gòu)建由 Llama 驅(qū)動(dòng)的服務(wù)、工具和應(yīng)用程序。

Meta 尚未透露該 API 的定價(jià)。

該 API 的推出正值 Meta 希望在競(jìng)爭(zhēng)激烈的開(kāi)放模型領(lǐng)域保持領(lǐng)先地位之際。據(jù) Meta 稱(chēng),盡管 Llama 模型迄今為止的下載量已超過(guò) 10 億次,但 DeepSeek 和阿里巴巴的 Qwen 等競(jìng)爭(zhēng)對(duì)手可能會(huì)破壞 Meta 與 Llama 建立深遠(yuǎn)生態(tài)系統(tǒng)的努力。

從 Llama 3.3 8B 開(kāi)始,Llama API 提供了用于微調(diào)和評(píng)估 Llama 模型性能的工具。客戶(hù)可以生成數(shù)據(jù),對(duì)其進(jìn)行訓(xùn)練,然后使用 Llama API 中的 Meta 評(píng)估套件來(lái)測(cè)試其自定義模型的質(zhì)量。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

Meta 表示不會(huì)使用 Llama API 客戶(hù)數(shù)據(jù)來(lái)訓(xùn)練公司自己的模型,并且使用 Llama API 構(gòu)建的模型可以轉(zhuǎn)移到另一個(gè)主機(jī)。

對(duì)于基于 Meta 最近發(fā)布的 Llama 4 模型進(jìn)行構(gòu)建的開(kāi)發(fā)者,Llama API 通過(guò)與 Cerebras 和 Groq 合作提供了模型服務(wù)選項(xiàng)。Meta 表示,這些“早期實(shí)驗(yàn)性”選項(xiàng)“可根據(jù)要求提供”,以幫助開(kāi)發(fā)者構(gòu)建 AI 應(yīng)用原型。

Meta 在提供給 TechCrunch 的一篇博客文章中寫(xiě)道:“只需在 API 中選擇 Cerebras 或 Groq 型號(hào)名稱(chēng),開(kāi)發(fā)人員就可以享受到簡(jiǎn)化的體驗(yàn),所有使用情況都集中在一個(gè)位置進(jìn)行跟蹤。我們期待擴(kuò)大與其他供應(yīng)商的合作,為 Llama 帶來(lái)更多構(gòu)建選擇?!?/p>

Meta 表示將在“未來(lái)幾周和幾個(gè)月內(nèi)”擴(kuò)大對(duì) Llama API 的訪(fǎng)問(wèn)權(quán)限。