奇月 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI
入職MIT電氣工程和計(jì)算機(jī)科學(xué)系的何愷明,第一波門下弟子現(xiàn)在曝光——

可以看到,四位研究者中其中有三位都是3位是華人:白行建、鄧明揚(yáng)、黎天鴻。
我們熟悉的IMO、IOI雙料奧賽金牌得主鄧明揚(yáng)也在列。
事實(shí)上,在不久之前,他們就已經(jīng)合作了一篇文章:無需矢量量化的自回歸圖像生成何愷明新作再戰(zhàn)AI生成:入職MIT后首次帶隊(duì),奧賽雙料金牌得主鄧明揚(yáng)參與
這篇文章提出了一種新的圖像生成方法,通過擴(kuò)散過程來建模每個(gè)標(biāo)記的概率分布,從而避免了使用離散值的tokenizer,并在連續(xù)值空間中實(shí)現(xiàn)了自回歸模型的應(yīng)用。

這篇文章黎天鴻博士后是論文的一作,此外他還參與了何愷明團(tuán)隊(duì)的其他多項(xiàng)學(xué)術(shù)研究:


何愷明副教授的主頁也更新了頭像、聯(lián)系方式和履歷,還有一些最新的MIT課程和演講等:


何愷明MIT實(shí)驗(yàn)室成員首次公開
博士一年級(jí)生鄧明揚(yáng)
鄧明揚(yáng),MIT數(shù)學(xué)和計(jì)算機(jī)科學(xué)本科。
他從小學(xué)三年級(jí)就開始競(jìng)賽,在高一獲得IMO(國際數(shù)學(xué)奧林匹克競(jìng)賽)金牌,高三獲得IOI(國際信息學(xué)奧林匹克競(jìng)賽)金牌,國內(nèi)首位在不同學(xué)科獲得國際金牌的選手,也是IOI歷史上第三位滿分選手,人稱“乖神”。
此外他還曾獲得ICPC國際大學(xué)生程序設(shè)計(jì)競(jìng)賽世界總決賽的第1名。
目前鄧明揚(yáng)的研究重點(diǎn)是機(jī)器學(xué)習(xí),特別是理解和推進(jìn)生成式基礎(chǔ)模型,包括擴(kuò)散模型和大型語言模型。


博士一年級(jí)生白行健
白行健高中畢業(yè)于北師大實(shí)驗(yàn)中學(xué),在牛津大學(xué)獲得了數(shù)學(xué)和計(jì)算機(jī)科學(xué)的碩士和學(xué)士學(xué)位。
他的研究重點(diǎn)目前是是經(jīng)典算法和深度學(xué)習(xí)的交叉領(lǐng)域。
他也參與了多項(xiàng)競(jìng)賽,曾獲得2018年CCO(加拿大信息學(xué)奧林匹克競(jìng)賽)第一名,NOI(中國信息學(xué)奧林匹克競(jìng)賽)銀牌,NOIP(中國信息學(xué)聯(lián)賽)北京市提高組一等獎(jiǎng)第3名等。
高三時(shí),他就憑借自適應(yīng)圖卷積神經(jīng)網(wǎng)絡(luò)檢測(cè)網(wǎng)絡(luò)暴力的論文入圍了丘成桐中學(xué)科學(xué)獎(jiǎng)決賽。


博士后黎天鴻
黎天鴻本科畢業(yè)于清華叉院姚班,在MIT獲得了碩博學(xué)位之后,目前在何愷明組內(nèi)從事博士后研究。
根據(jù)他的主頁最新消息顯示,他將擔(dān)任ICLR 2025的區(qū)域主席。
他的主要研究方向是表示學(xué)習(xí)和生成模型,目標(biāo)是構(gòu)建能夠理解人類感知之外的世界的智能視覺系統(tǒng)。
此前曾作為一作和何愷明開發(fā)了自條件圖像生成框架RCG,團(tuán)隊(duì)最新的多項(xiàng)研究中他也都有參與。


有趣的是,他還非常喜歡做飯,主頁上放了很多自己總結(jié)的食譜。

博士生Jake Austin
還有一位博士生Jake Austin,之前在加州伯克利大學(xué)人工智能研究所任職。
她的谷歌學(xué)術(shù)主頁被引數(shù)超過了500,主要成果也是集中在計(jì)算機(jī)視覺領(lǐng)域。


何愷明團(tuán)隊(duì)的最新動(dòng)態(tài)
CV相關(guān)
何愷明團(tuán)隊(duì)最新的學(xué)術(shù)研究成果還是主要集中在他擅長的CV領(lǐng)域。
最新一篇是發(fā)表于10月17日的一篇論文:Fluid: Scaling Autoregressive Text-to-image Generative Models with Continuous Tokens。
這篇論文通過實(shí)證研究表明,使用連續(xù)標(biāo)記和隨機(jī)順序生成的自回歸模型在文本到圖像生成任務(wù)中表現(xiàn)出最佳的擴(kuò)展性和生成質(zhì)量,團(tuán)隊(duì)提出的Fluid模型刷新了新的零樣本FID和GenEval分?jǐn)?shù)。

另一篇Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers發(fā)表于9月30日。
這篇文章提出了一種名為Heterogeneous Pre-trained Transformers (HPT) 的架構(gòu),通過跨不同機(jī)器人本體和任務(wù)的異構(gòu)預(yù)訓(xùn)練來學(xué)習(xí)通用的策略表示,并在大規(guī)模機(jī)器人仿真和真實(shí)世界環(huán)境中驗(yàn)證了其有效性。

主頁還列出了更多研究內(nèi)容,包括自回歸圖像生成、單張圖像3D物理建模、使用拉格朗日體積網(wǎng)格表示高質(zhì)量幾何形狀等等,多篇文章都已被NeurlPS 2024接收。

AI for Science相關(guān)
之前,何愷明副教授在MIT的求職演講上特意提到,AI for Science也將是他未來的工作方向。
5月他曾發(fā)表了這個(gè)方向的首個(gè)工作:使用強(qiáng)化學(xué)習(xí)的動(dòng)態(tài)異構(gòu)量子資源調(diào)度。文章使用自注意力機(jī)制處理量子比特對(duì)的序列信息,在概率性環(huán)境中訓(xùn)練強(qiáng)化學(xué)習(xí)模型,提供動(dòng)態(tài)實(shí)時(shí)調(diào)度指導(dǎo),最終將量子系統(tǒng)性能提升了3倍以上。

多位大神云集,讓我們一起期待何愷明團(tuán)隊(duì)未來的更多成果吧!
參考鏈接:
[1]https://people.csail.mit.edu/kaiming/
熱門跟貼