騰訊最近真的猛,產(chǎn)品增長(zhǎng)快不算,模型也庫(kù)庫(kù)發(fā)布
3D、視頻和 LLM 在GitHub上總Star數(shù)都超過(guò)2.6萬(wàn)了
剛才發(fā)布了混元 T1 推理模型的正式版,推理速度極快(首字秒回)而且支持超常文本處理
模型基于混元Turbo S訓(xùn)練
而且這次的正式版比前段時(shí)間上線騰訊元寶的混元T1-preview在各項(xiàng)測(cè)試上都有大幅提升
混元T1已在騰訊云官網(wǎng)上線,輸入價(jià)格為每百萬(wàn)tokens 1元,輸出價(jià)格為每百萬(wàn)tokens 4元。
混元 Turbo S 這個(gè)模型也很有意思,采用Hybrid-Mamba-Transformer融合模式,應(yīng)該是業(yè)界首次將混合Mamba架構(gòu)無(wú)損應(yīng)用于超大型推理模型。
Mamba 架構(gòu)相較于 Transformer 可以處理更長(zhǎng)的上下文,同時(shí)可以大幅降低推理時(shí)的內(nèi)存占用和算力成本。
混元T1能有效解決長(zhǎng)文推理中常見(jiàn)的上下文丟失和長(zhǎng)距離信息依賴問(wèn)題。同時(shí),混合Mamba架構(gòu)針對(duì)長(zhǎng)序列處理進(jìn)行了專項(xiàng)優(yōu)化,通過(guò)高效的計(jì)算方式,在確保長(zhǎng)文本信息捕捉能力的同時(shí)大幅降低資源消耗。
他們這個(gè)混合架構(gòu)可以確保長(zhǎng)文本信息捕捉能力的同時(shí)大幅降低資源消耗,在相近的激活參數(shù)量下,實(shí)現(xiàn)了解碼速度提升2倍。而且首字時(shí)延低于1秒,實(shí)際應(yīng)用中可以做到秒回。

打開(kāi)網(wǎng)易新聞 查看精彩圖片
打開(kāi)網(wǎng)易新聞 查看精彩圖片
打開(kāi)網(wǎng)易新聞 查看精彩圖片