

視頻創(chuàng)作新巔峰!
谷歌DeepMind推出Veo 2
在AI視頻生成的戰(zhàn)場上,谷歌終于亮出了底牌:4月16日,Veo 2正式登陸Gemini Advanced。
Veo 2生成:一只戴著超大眼鏡的小老鼠在舒適的森林巢穴里,在蘑菇的燈光下看書的動畫鏡頭。
Veo 2可以最高生成8秒720P電影級視頻(理論上可生成4K分辨率視頻,但受限于當前工具鏈,實際輸出暫為720p,谷歌計劃年內(nèi)開放4K長視頻生成),在運鏡、文本語義還原、物理模擬、動作一致性等方面非常優(yōu)秀,同時支持圖片轉(zhuǎn)視頻功能——這是谷歌邁向多模態(tài)生成系統(tǒng)的重要一步。
Veo 2生成:太平洋海岸線寧靜的美麗景致。
作為谷歌DeepMind團隊的最新力作,Veo 2在原有基礎(chǔ)上實現(xiàn)了大升級:
首先是電影級創(chuàng)作工具:Veo 2能自動移除視頻中的干擾元素,并利用Outpainting功能擴展畫面,生成與原視頻無縫銜接的新片段。此外,內(nèi)置“無人機視角”“延時攝影”“鏡頭平移”等電影級拍攝參數(shù),用戶只需輸入文字描述,即可生成符合好萊塢敘事邏輯的分鏡。再加上靜態(tài)圖轉(zhuǎn)視頻技術(shù),這讓AI視頻創(chuàng)作更加便捷。
其次是多模態(tài)協(xié)同與數(shù)字水印保護。用戶可直接在Veo 2中調(diào)用谷歌Imagen 3文本生圖模型,或?qū)氡镜厮夭模?strong>實現(xiàn) “文字描述-圖像生成-視頻剪輯” 全流程閉環(huán)。而為防止AI生成內(nèi)容濫用,Veo 2在輸出視頻時會嵌入不可見的數(shù)字水印,支持第三方驗證內(nèi)容來源。
Veo 2生成:采用35毫米鏡頭搭配柯達Portra 400膠卷拍攝的養(yǎng)蜂人。
根據(jù)谷歌公布的測試數(shù)據(jù)顯示,Veo 2在用戶偏好和提示還原方面已經(jīng)超過了Sora、可靈1.5、MetaMovieGen和Minimax。
川崎公司推出氫動力AI坐騎CORLEO

4月11日,日本川崎重工在2025年大阪世博會上展示了一款名為Corleo的四足機器人概念車型。
這款“賽博坐騎”融合了摩托車工程與機器人技術(shù),大小與大型摩托車相當,四個獨立運動的機械腿配備柔性橡膠蹄,搭載一臺150cc的氫燃料發(fā)動機,能夠?qū)崟r分析機器人及騎手的位置,確保騎手安全穩(wěn)固地坐在馬鞍上。
游戲許愿屋?AI幫你“創(chuàng)造世界”

有多少人都曾被文案、美術(shù)、引擎等高要求的技術(shù)門檻攔在游戲開發(fā)的世界之外?但現(xiàn)在,如果你心中有一個游戲開發(fā)的夢,想要自己“創(chuàng)造”一個世界,似乎一切都能變得簡單起來。
2025年4月9日,Astrocade團隊正式推出「Wish-to-Game」平臺。用戶只需提供創(chuàng)意,平臺即可通過AI技術(shù),將其轉(zhuǎn)化為可玩的游戲,從而降低創(chuàng)作門檻。
你無需編寫一行代碼,只需要將你的創(chuàng)意用文字表達出來,就能將腦海中的創(chuàng)意火花轉(zhuǎn)化為可玩的游戲——從代碼、視效,到動畫、音樂以及機制。用戶還可以在游戲過程中實時修改內(nèi)容,使創(chuàng)作過程更加靈活和動態(tài)。這種即時反饋和調(diào)整的能力,讓創(chuàng)作更加高效和富有樂趣。
此外,Astrocade的產(chǎn)品還集成了社交功能,游戲愛好者可以在這里發(fā)現(xiàn)有趣的新游戲,還能夠參加官方舉辦的比賽、合作項目等等。
DeepSeek推出SPCT技術(shù),革新AI獎勵模型
4月8日,DeepSeek聯(lián)合清華大學(xué),合作推出全新AI對齊技術(shù)SPCT(自我原則點評調(diào)優(yōu))。突破傳統(tǒng)依賴海量訓(xùn)練數(shù)據(jù)的模式,通過推理階段動態(tài)優(yōu)化輸出質(zhì)量。
大語言模型依賴獎勵模型提供的反饋信號來調(diào)整輸出內(nèi)容,即獎勵模型決定著AI系統(tǒng)的價值取向與行為邏輯。然而,現(xiàn)有獎勵模型長期面臨"雙重困境":在可驗證領(lǐng)域表現(xiàn)出色,但在開放域?qū)υ捴袇s頻頻"失靈";傳統(tǒng)標量獎勵無法捕捉復(fù)雜語義,半標量方法又受限于預(yù)設(shè)規(guī)則。
而在SPCT技術(shù)下,AI可以通過自我指導(dǎo)機制,優(yōu)化決策過程,使其更加高效和精準,從而顯著提升獎勵模型的智能水平和可擴展性。這是AI獎勵模型領(lǐng)域的一次重大突破。
AI生圖迎最強地震!
Midjourney V7電影級畫質(zhì)干翻GPT-4o
當大家還在樂此不疲地玩著GPT-4o的「吉卜力」風(fēng)時,Midjourney帶著V7版本強勢登場了!
從各方網(wǎng)友反饋的內(nèi)測結(jié)果來看,Midjourney V7在圖像質(zhì)量方面有了進一步的提升,對于指令的解析能力大大增強,能夠生成超逼真人物,蠟像感暴減,甚至連商業(yè)大片也輕松拿下。
此外,Midjourney V7還引入了個性化模型功能,可根據(jù)用戶的個人審美偏好,提供更加精準和個性化的圖像生成;而草稿模式能夠大大提升圖像渲染速度和成本。
仿真人形機器人開啟自主作業(yè)新時代
3月25日,由香港大學(xué)和上海人工智能實驗室研究團隊開發(fā)的TokenHSI技術(shù),在單一任務(wù)控制器的基礎(chǔ)上,引入基于Transformer架構(gòu)的統(tǒng)一策略網(wǎng)絡(luò),使得仿真人形機器人在挑戰(zhàn)性動態(tài)雜亂環(huán)境中,也有了完成長期操作任務(wù)的能力。

TokenHSI旨在解決當前物理角色控制方法中普遍存在的局限性,即無法有效整合多種復(fù)雜的人體場景交互(HSI)技能?,F(xiàn)有方法通常專注于單一任務(wù)控制器的開發(fā),導(dǎo)致在面對需要多技能協(xié)同的任務(wù)時表現(xiàn)不佳。而TokenHSI的基于Transformer的策略,可以讓物理驅(qū)動的角色與環(huán)境進行自然交互——它支持可變長度的輸入,以快速適應(yīng)新場景,并通過跨任務(wù)的知識共享,大幅提升交互的多樣性與靈活性。
全球首篇通過同行評審的AI生成科學(xué)論文現(xiàn)世
2024年8月,Transformer 論文作者之一Llion Jones與前谷歌研究者David Ha共同創(chuàng)立的人工智能公司Sakana AI推出了首個全自動科學(xué)發(fā)現(xiàn)的AI系統(tǒng):AI Scientist,即「AI 科學(xué)家」。到12月份,他們又拿出了另一項震撼性的重磅研究成果:使用基礎(chǔ)模型搜索人工生命的系統(tǒng)ASAL。這兩項成果都吸引了無數(shù)眼球。
2025年3月12日,Sakana AI又宣布:AI Scientist-v2通過了ICLR會議一個研討會的同行評審過程。這是AI科學(xué)家寫出的首篇通過同行評審的科研論文!

AI Scientist工作流程
不過,論文雖然通過了ICLR研討會的評審,但Sakana AI團隊在內(nèi)部評審中發(fā)現(xiàn),三篇論文并未達到ICLR主會場的接受標準。此外,雖然AI Scientist展現(xiàn)出了一定的科研能力,但在自主研究方面仍存在諸多不足。例如,在文獻綜述環(huán)節(jié),它常常將已經(jīng)成熟的學(xué)術(shù)概念錯誤地歸類為新穎成果,在實驗執(zhí)行過程中,42個實驗因編碼錯誤而失敗,部分實驗結(jié)果也存在缺陷或誤導(dǎo)性,生成的論文也存在結(jié)構(gòu)錯誤、引用過時等問題。

Sakana AI團隊發(fā)現(xiàn)AI Scientist的錯誤:它錯誤地將“基于LSTM的神經(jīng)網(wǎng)絡(luò)”歸于Goodfellow(2016 年),正確的應(yīng)該是Hochreiter和Schmidhuber(1997年)。
更多AI前沿信息,點擊視頻了解
壹
貳
叁
肆
伍

熱門跟貼