4月25日上午,在武漢舉行的百度Create開(kāi)發(fā)者大會(huì)上,百度創(chuàng)始人李彥宏表示,應(yīng)用才能為大模型創(chuàng)造價(jià)值,“只要找對(duì)場(chǎng)景、選對(duì)基礎(chǔ)模型、會(huì)調(diào)模型,做出來(lái)的應(yīng)用就不會(huì)過(guò)時(shí)。李彥宏還表示,多模態(tài)將成為基礎(chǔ)模型的標(biāo)配,純文本模型的市場(chǎng)會(huì)越來(lái)越小。”

打開(kāi)網(wǎng)易新聞 查看精彩圖片

李彥宏在大會(huì)現(xiàn)場(chǎng)發(fā)布了文心大模型4.5 Turbo和文心大模型X1 Turbo,這兩大模型具備多模態(tài)、強(qiáng)推理、低成本三大特性。

文心大模型X1 Turbo是基于4.5 Turbo的深度思考模型,性能提升的同時(shí),具備更先進(jìn)的思維鏈,問(wèn)答、創(chuàng)作、邏輯推理、工具調(diào)用和多模態(tài)能力進(jìn)一步增強(qiáng),整體效果領(lǐng)先DeepSeek R1、V3最新版。

李彥宏談道,當(dāng)下的部分模型,仍然存在模態(tài)單一、幻覺(jué)高、速度慢和價(jià)格貴等問(wèn)題。百度發(fā)布這兩款新模型,正是為了解決這些痛點(diǎn)。

針對(duì)模型迭代太快,應(yīng)用價(jià)值是否會(huì)被覆蓋的行業(yè)疑慮,李彥宏明確指出,只要找對(duì)場(chǎng)景、選對(duì)基礎(chǔ)模型、會(huì)調(diào)模型,做出來(lái)的應(yīng)用就不會(huì)過(guò)時(shí)。而隨著模型能力的增強(qiáng),大模型和應(yīng)用場(chǎng)景結(jié)合的機(jī)會(huì)將越來(lái)越多,能夠滲透場(chǎng)景、帶來(lái)實(shí)在價(jià)值的AI應(yīng)用,是屬于開(kāi)發(fā)者的真機(jī)會(huì)。

“多模態(tài)將成為未來(lái)基礎(chǔ)模型的標(biāo)配,純文本模型的市場(chǎng)會(huì)越變?cè)叫?,多模態(tài)模型的市場(chǎng)會(huì)越來(lái)越大?!崩顝┖暾劦馈?/p>

李彥宏還發(fā)布了百度全新推出的高說(shuō)服力數(shù)字人,它具有聲形超擬真、內(nèi)容更專業(yè)、互動(dòng)更靈活等特點(diǎn),能在電商直播、游戲、消費(fèi)等領(lǐng)域發(fā)揮巨大價(jià)值。

李彥宏指出,高說(shuō)服力數(shù)字人超越真人主要?dú)w功于百度慧播星背后的“劇本生成”能力,實(shí)現(xiàn)口播腳本與數(shù)字人表情、語(yǔ)氣、動(dòng)作的高度融合,以及順暢的情緒轉(zhuǎn)折和動(dòng)作切換,表現(xiàn)“超擬真”。

另外,高說(shuō)服力數(shù)字人還具備“AI大腦”,能根據(jù)直播間實(shí)時(shí)熱度和轉(zhuǎn)化情況,靈活調(diào)度助播、場(chǎng)控、運(yùn)營(yíng)等角色共同促進(jìn)轉(zhuǎn)化,譬如適時(shí)切換鏡頭畫(huà)面、調(diào)度圖片、視頻素材,真正實(shí)現(xiàn)了一個(gè)人就是一個(gè)營(yíng)銷團(tuán)隊(duì)。

目前,百度慧播星已上線“一鍵克隆”功能。用戶只需錄制一條最短2分鐘的直播視頻上傳訓(xùn)練,即可擁有自己的專屬數(shù)字人。

上游新聞?dòng)浾?楊昕華