打開網(wǎng)易新聞 查看精彩圖片

速覽熱門論文

1.AI 讓你更 emo?EmoAgent 來幫你;

2.Google DeepMind:新數(shù)據(jù)如何“誘導(dǎo)”大模型

3.70B 大模型,可在日常家用設(shè)備上運(yùn)行了

4.研究發(fā)現(xiàn):LLM 可能是一個(gè)危險(xiǎn)的說服者

5.VL-Rethinker:利用 RL 強(qiáng)化視覺語(yǔ)言模型的慢思考

6.M1:基于 Mamba 的混合線性 RNN 推理模型

1.AI 讓你更 emo?EmoAgent 助你心理更健康

由大語(yǔ)言模型(LLM)驅(qū)動(dòng)的人工智能(AI)角色引發(fā)了安全問題,尤其是對(duì)有心理障礙的脆弱人類用戶而言。

為了評(píng)估和減輕人機(jī)交互中的心理健康危害,來自普林斯頓大學(xué)和密歇根大學(xué)的研究團(tuán)隊(duì)及其合作者,提出了一個(gè)多 agent 人工智能框架——EmoAgent,其由兩部分組成:

EmoEval 模擬虛擬用戶,如心理脆弱的人,以評(píng)估與人工智能角色互動(dòng)前后的心理健康變化,它使用經(jīng)臨床驗(yàn)證的心理和精神評(píng)估工具(PHQ-9、PDI、PANSS)來評(píng)估 LLM 引發(fā)的精神風(fēng)險(xiǎn);

打開網(wǎng)易新聞 查看精彩圖片

EmoGuard 充當(dāng)中間人,監(jiān)控用戶的精神狀態(tài),預(yù)測(cè)潛在危害,并提供糾正反饋以降低風(fēng)險(xiǎn)。

打開網(wǎng)易新聞 查看精彩圖片

在主流的基于角色的聊天機(jī)器人中進(jìn)行的實(shí)驗(yàn)表明,情緒化對(duì)話會(huì)導(dǎo)致易受傷害用戶的心理狀況惡化,超過 34.4% 的模擬用戶的心理狀況惡化。EmoGuard 可以降低這些惡化率,突出了它在確保更安全的人機(jī)互動(dòng)方面的作用。

論文鏈接:

https://arxiv.org/abs/2504.09689

2.Google DeepMind:新數(shù)據(jù)如何“誘導(dǎo)”大模型?

大語(yǔ)言模型(LLM)通過基于梯度的更新積累進(jìn)行學(xué)習(xí)和持續(xù)學(xué)習(xí),但人們對(duì)單個(gè)新信息如何影響現(xiàn)有知識(shí)、導(dǎo)致有益的泛化和有問題的幻覺仍然知之甚少。

在這項(xiàng)工作中,Google DeepMind 團(tuán)隊(duì)證明,在學(xué)習(xí)新信息時(shí),LLM 會(huì)表現(xiàn)出一種“誘導(dǎo)”(priming)效應(yīng):在學(xué)到一條新知識(shí)后,模型會(huì)在不相關(guān)的上下文中錯(cuò)誤地套用這條知識(shí)。

為了系統(tǒng)地研究這一現(xiàn)象,他們提出了 Outlandish 數(shù)據(jù)集,其包含 1320 個(gè)不同的文本樣本,旨在探究新知識(shí)如何滲透到 LLM 的現(xiàn)有知識(shí)庫(kù)中。他們發(fā)現(xiàn),學(xué)習(xí)新信息后的 priming 程度可以通過測(cè)量學(xué)習(xí)前關(guān)鍵詞的 token 概率來預(yù)測(cè)。這種關(guān)系在不同的模型架構(gòu)(PALM-2、Gemma、Llama)、規(guī)模和訓(xùn)練階段都能魯棒地保持。

打開網(wǎng)易新聞 查看精彩圖片

最后,他們通過一種“stepping-stone”文本增強(qiáng)策略和一種 “ignore-k”更新剪枝方法,來調(diào)節(jié)新知識(shí)對(duì)現(xiàn)有模型行為的影響,在保持模型學(xué)習(xí)新信息能力的同時(shí),減少了 50-95% 的不良 priming 效應(yīng)。

論文鏈接:

https://arxiv.org/abs/2504.09522

3.70B 大模型,可在日常家用設(shè)備上運(yùn)行了

在這項(xiàng)工作中,來自默罕默德本扎耶德人工智能大學(xué)和電子科技大學(xué)的研究團(tuán)隊(duì)提出了一個(gè)分布式推理系統(tǒng) prima.cpp,其可以在日常家用設(shè)備上運(yùn)行 70B 規(guī)模的模型,混合使用 CPU/GPU、低 RAM/VRAM、Wi-Fi 和跨平臺(tái)支持。

打開網(wǎng)易新聞 查看精彩圖片

該系統(tǒng)使用 mmap 管理模型權(quán)重,并通過預(yù)取引入管道環(huán)并行,以隱藏磁盤負(fù)載。通過對(duì)計(jì)算、通信、磁盤、內(nèi)存(及其管理行為)和操作系統(tǒng)的異構(gòu)性進(jìn)行建模,它可以將模型層最優(yōu)化地分配給每個(gè)設(shè)備的 CPU 和 GPU,從而進(jìn)一步減少 token 延遲。他們提出了 Halda 算法來解決這一 NP 難分配問題。

他們?cè)诔R姷乃墓?jié)點(diǎn)家庭集群上對(duì) prima.cpp 進(jìn)行了評(píng)估。在 30B+ 模型上,prima.cpp 的性能優(yōu)于 llama.cpp、exo 和 dllama,同時(shí)內(nèi)存壓力保持在 6% 以下。這為家庭助手帶來了前沿 30B-70B 模型,使高級(jí)人工智能真正為個(gè)人所用。

論文鏈接:

https://arxiv.org/abs/2504.08791

4.研究發(fā)現(xiàn):LLM 可能是一個(gè)危險(xiǎn)的說服者

大語(yǔ)言模型(LLMs)已經(jīng)具備接近人類水平的說服能力。然而,這種潛力也引發(fā)了人們對(duì) LLM 驅(qū)動(dòng)的說服的安全風(fēng)險(xiǎn)的擔(dān)憂,特別是它們通過操縱、欺騙、利用漏洞和許多其他有害策略施加不道德影響的潛力。

在這項(xiàng)工作中,來自弗吉尼亞理工大學(xué)的研究團(tuán)隊(duì)及其合作者對(duì) LLM 的說服安全性進(jìn)行了系統(tǒng)研究:(1)在執(zhí)行過程中,包括最初的說服目標(biāo)看似道德中立的情況下,LLM 是否會(huì)適當(dāng)?shù)鼐芙^不道德的說服任務(wù)并避免不道德的策略;(2)人格特質(zhì)和外部壓力等影響因素,如何影響它們的行為。

為此,他們提出了第一個(gè)用于評(píng)估說服安全的綜合框架 PersuSafety,其包括說服場(chǎng)景創(chuàng)建、說服對(duì)話模擬和說服安全評(píng)估 3 個(gè)階段,并涵蓋 6 種不同的不道德說服主題和 15 種常見的不道德策略。

通過對(duì) 8 種廣泛使用的 LLM 進(jìn)行大量實(shí)驗(yàn),他們發(fā)現(xiàn)大多數(shù) LLM 都存在嚴(yán)重的安全問題,包括無(wú)法識(shí)別有害的說服任務(wù)和利用各種不道德的說服策略。他們呼吁更多人關(guān)注如何改善漸進(jìn)式和目標(biāo)驅(qū)動(dòng)型對(duì)話中的安全對(duì)齊。

論文鏈接:

https://arxiv.org/abs/2504.10430

5.VL-Rethinker:利用 RL 強(qiáng)化視覺語(yǔ)言模型的慢思考

慢思考系統(tǒng)在通過顯式反思解決挑戰(zhàn)性問題方面展現(xiàn)出了潛力,在各種數(shù)學(xué)和科學(xué)基準(zhǔn)測(cè)試中的表現(xiàn)優(yōu)于 GPT-4o 等快思考模型,但其多模態(tài)推理能力仍如同于快思考模型。

在這項(xiàng)工作中,來自香港科技大學(xué)和滑鐵盧大學(xué)的研究團(tuán)隊(duì)旨在利用強(qiáng)化學(xué)習(xí)(不依賴于蒸餾)增強(qiáng)視覺語(yǔ)言模型的慢思考能力,從而推動(dòng)技術(shù)發(fā)展。首先,他們將 GRPO 算法與一種名為“選擇性樣本重放”(SSR)的新技術(shù)相結(jié)合,以解決優(yōu)勢(shì)消失的問題。雖然這種方法能夠提升性能,但由此產(chǎn)生的 RL 訓(xùn)練模型卻表現(xiàn)出有限的自我反思或自我驗(yàn)證。為了進(jìn)一步提升慢思考,他們引入了“強(qiáng)制反思”(Forced Rethinking)技術(shù),即在 RL 訓(xùn)練的初始滾動(dòng)結(jié)束時(shí)附加一個(gè)文本反思觸發(fā)器,明確強(qiáng)制執(zhí)行自我反思推理步驟。

打開網(wǎng)易新聞 查看精彩圖片

通過結(jié)合這兩項(xiàng)技術(shù),他們的模型 VL-Rethinker 在 MathVista、MathVerse 和 MathVision上的得分分別達(dá)到了80.3%、61.8%和43.9%,同時(shí)還在 MMMU-Pro、EMMA 和 MEGA-Bench 等多學(xué)科基準(zhǔn)上實(shí)現(xiàn)了開源 SoTA,縮小了與 GPT-o1 的差距。

論文鏈接:

https://arxiv.org/abs/2504.08837

6.M1:基于 Mamba 的混合線性 RNN 推理模型

有效的推理對(duì)于解決復(fù)雜的數(shù)學(xué)問題至關(guān)重要。大語(yǔ)言模型(LLM)通過長(zhǎng) CoT 推理擴(kuò)展了測(cè)試時(shí)計(jì)算,從而提高了性能。然而,由于其二次計(jì)算復(fù)雜度和線性內(nèi)存要求,基于 transformer 的模型在擴(kuò)展上下文長(zhǎng)度方面受到了固有的限制。

在這項(xiàng)工作中,來自 TogetherAI 的研究團(tuán)隊(duì)及其合作者提出了一種基于 Mamba 架構(gòu)的混合線性 RNN 推理模型——M1,其可以實(shí)現(xiàn)高效內(nèi)存推理。這一方法利用了現(xiàn)有推理模型的蒸餾過程,并通過 RL 訓(xùn)練得到了進(jìn)一步增強(qiáng)。

在 AIME 和 MATH 基準(zhǔn)上的實(shí)驗(yàn)結(jié)果表明,M1 不僅優(yōu)于以前的線性 RNN 模型,而且在類似規(guī)模下的性能媲美 Deepseek R1 蒸餾推理模型,他們還將 M1 與高性能通用推理引擎 vLLM 進(jìn)行了比較,發(fā)現(xiàn)與相同規(guī)模的 transformer 相比,其生成速度提高了 3 倍多。通過吞吐量加速,與使用自一致性投票的固定生成時(shí)間預(yù)算下的 DeepSeek R1 蒸餾 transformer 推理模型相比,M1 能夠?qū)崿F(xiàn)更高的精度。

論文鏈接:

https://arxiv.org/abs/2504.10449

整理:學(xué)術(shù)君

如需轉(zhuǎn)載或投稿,請(qǐng)直接在公眾號(hào)內(nèi)留言