中國日報4月15日電(記者 樊菲菲)4月15日,快手高級副總裁、社區(qū)科學(xué)線負(fù)責(zé)人蓋坤宣布,可靈AI基座模型再次升級,可靈2.0視頻生成模型及可圖2.0圖像生成模型正式發(fā)布。據(jù)介紹,可靈2.0模型在動態(tài)質(zhì)量、語義響應(yīng)、畫面美學(xué)等維度,保持全球領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。

數(shù)據(jù)顯示,自去年6月發(fā)布以來,可靈AI已累計完成超20次迭代,截至目前,可靈AI全球用戶規(guī)模已突破2200萬,累計生成1.68億個視頻及3.44億張圖片素材。自去年6月上線至今的10個月時間里,可靈AI的月活用戶數(shù)量增長25倍。來自世界各地的超1.5萬開發(fā)者和企業(yè)客戶,將可靈的API應(yīng)用于不同的行業(yè)場景中。

蓋坤認(rèn)為,AI在輔助創(chuàng)意表達(dá)上擁有巨大潛力,但當(dāng)前的行業(yè)發(fā)展現(xiàn)狀還遠(yuǎn)遠(yuǎn)無法滿足用戶需求,在AI生成內(nèi)容的穩(wěn)定性、以及用戶復(fù)雜創(chuàng)意的精確傳達(dá)上仍有“很多挑戰(zhàn)”。也因此,要真正實現(xiàn)“用AI講好每一個故事”的愿景,必須對基模型能力進(jìn)行全方位提升,定義人和AI交互的“全新語言”。

一直以來,可靈AI致力于提升模型基礎(chǔ)質(zhì)量,增強(qiáng)畫質(zhì)清晰度,并引入更多創(chuàng)新功能,以滿足用戶多樣化需求。蓋坤表示,可靈希望讓每個人都能用AI講出好故事,實現(xiàn)更加精準(zhǔn)的復(fù)雜創(chuàng)意表達(dá)。

在本次2.0模型的迭代中,可靈AI正式發(fā)布AI視頻生成的全新交互理念Multi-modal Visual Language(MVL),讓用戶能夠結(jié)合圖像參考、視頻片段等多模態(tài)信息,將腦海中包含身份、外觀、風(fēng)格、場景、動作、表情、運鏡在內(nèi)的多維度復(fù)雜創(chuàng)意,直接高效地傳達(dá)給AI。

蓋坤指出,MVL由TXT(Pure Text,語義骨架)和MMW(Multi-modal-document as a Word,多模態(tài)描述子)組成,能從視頻生成設(shè)定的基礎(chǔ)方向以及精細(xì)控制這兩個層面,精準(zhǔn)實現(xiàn)AI創(chuàng)作者們的創(chuàng)意表達(dá)。他表示,MMW(多模態(tài)描述子)將不只局限于圖片和視頻,也可以引入其它模態(tài)的信息,例如聲音、運動軌跡等,讓用戶實現(xiàn)更加豐富的表達(dá)。

基于MVL這一全新交互方式,快手副總裁、可靈AI負(fù)責(zé)人張迪發(fā)布了全新的可靈2.0大師版,在語義響應(yīng)、動態(tài)質(zhì)量、畫面美學(xué)等方面顯著提升生成效果。據(jù)介紹,可靈2.0大師版全面升級視頻及圖像創(chuàng)作可控生成與編輯能力,上線全新的多模態(tài)視頻編輯功能,能靈活理解用戶意圖,支持對視頻內(nèi)容實現(xiàn)增、刪、改。

據(jù)了解,當(dāng)前視頻生成主要分文生視頻和圖生視頻兩種,張迪披露,當(dāng)前,圖生視頻約占到可靈AI視頻創(chuàng)作量的85%,圖片質(zhì)量也對視頻的生成效果產(chǎn)生重要作用。

面向未來,蓋坤表示,可靈AI將持續(xù)大力推動技術(shù)創(chuàng)新,用人與AI交互的全新語言,幫助用戶實現(xiàn)復(fù)雜創(chuàng)意的精確表達(dá),“我們的初心,是讓每個人都能用AI講出好的故事,我們也真切地希望這一天更快到來”。

打開網(wǎng)易新聞 查看精彩圖片

來源:中國日報網(wǎng)