3月31日,在百度AI DAY上,百度發(fā)布業(yè)界首個基于全新互相關注意力(Cross-Attention)的端到端語音語言大模型,實現(xiàn)超低時延與超低成本,在電話語音頻道的語音問答場景中,調用成本較行業(yè)均值下降約50%-90%。當日,文小言宣布品牌煥新,率先接入該模型,還帶來多模型融合調度、圖片問答等功能升級。
接入全新的端到端語音語言大模型后,文小言不僅能支持更擬真的語聊效果,而且支持重慶、廣西、河南、廣東、山東等特色方言。據(jù)介紹,語音大模型具備極低的訓練和使用成本,極快的推理響應速度,語音交互時,可將用戶等待時長從行業(yè)常見的3-5秒降低至1秒左右。
更新后的文小言還支持“多模型融合調度”,通過整合百度自研的文心X1、文心4.5等頂尖模型,并接入DeepSeek-R1等第三方優(yōu)質模型,實現(xiàn)了多模型間的智能協(xié)同。用戶可以選擇“自動模式”,一鍵調用最優(yōu)模型組合,也可根據(jù)需求靈活選擇單一模型完成特定任務,大幅提升響應速度與任務處理能力。

打開網(wǎng)易新聞 查看精彩圖片
同時,文小言還加強了圖片問答功能,用戶拍攝或上傳圖片,以文字或語音提問即可直接獲取深度解析。例如,拍攝一道數(shù)學題可實時生成解題思路與視頻解析;上傳多款商品圖可對比參數(shù)、價格,輔助購物決策;拍攝杯子設計圖后,AI可自動解析風格并生成同款手機殼、支架等周邊產(chǎn)品。
熱門跟貼