(關(guān)注公眾號(hào)設(shè)為標(biāo),獲取AI深度洞察)
全文 6,000字 | 閱讀約24分鐘

在剛剛落幕的2025英偉達(dá)GTC大會(huì)上,一場(chǎng)關(guān)于AI未來(lái)發(fā)展路徑的激烈辯論引爆了整個(gè)技術(shù)社區(qū)。Meta首席AI科學(xué)家、圖靈獎(jiǎng)得主Yann LeCun與英偉達(dá)首席科學(xué)家Bill Dally在主會(huì)場(chǎng)的對(duì)談環(huán)節(jié)中,針對(duì)"類人AI發(fā)展路徑"展開了前所未有的思想碰撞。
當(dāng)Bill Dally委婉地詢問LeCun對(duì)當(dāng)前主流大語(yǔ)言模型是否能在3-5年內(nèi)實(shí)現(xiàn)類人智能時(shí),現(xiàn)場(chǎng)氣氛瞬間凝固。LeCun直言不諱地表示:"類人AI確實(shí)比許多人想象的更近,但目前整個(gè)行業(yè)都走在一條錯(cuò)誤的道路上。"隨后,這位被譽(yù)為卷積神經(jīng)網(wǎng)絡(luò)之父的科學(xué)家詳細(xì)闡述了為何現(xiàn)在的大語(yǔ)言模型雖然表現(xiàn)出色,卻本質(zhì)上是個(gè)"華麗的預(yù)測(cè)機(jī)器",無(wú)法真正理解物理世界、缺乏持久性記憶,更無(wú)法進(jìn)行真正的推理和規(guī)劃。
"所有人都在為一場(chǎng)錯(cuò)誤的競(jìng)賽投入數(shù)十億美元,"LeCun毫不留情地指出,"無(wú)論你把大模型規(guī)模擴(kuò)大多少倍,用再多的數(shù)據(jù)訓(xùn)練它,現(xiàn)有架構(gòu)的固有缺陷都無(wú)法突破。真正的突破需要全新的思路。"
文稿整理
主持人Bill Dally:大家好,我們今天就來(lái)隨意聊聊一些關(guān)于 AI 的話題,希望你們會(huì)覺得有意思。
嘉賓Yann LeCun:好的,
一、當(dāng)前AI發(fā)展的看法
Bill Dally:Yan,在過去一年里,AI 領(lǐng)域發(fā)生了很多有趣的事情。在你看來(lái),過去這一年里最讓你激動(dòng)的進(jìn)展是什么?
Yann LeCun:其實(shí)太多了,不過我可以提一件可能會(huì)讓一些人驚訝的事:我對(duì)大型語(yǔ)言模型(LLM)的興趣已經(jīng)沒有那么大了。它們的階段已經(jīng)相對(duì)成熟,正在被各種產(chǎn)品團(tuán)隊(duì)用來(lái)做一些邊際上的改進(jìn),比如更多數(shù)據(jù)、更多算力、用模型自己生成的合成數(shù)據(jù)等等。但對(duì)我來(lái)說(shuō),有其他四個(gè)問題更吸引人:
1、如何讓機(jī)器真正理解物理世界——黃仁勛在今早的主題演講里也提到了這個(gè)問題。
2、如何讓機(jī)器具備持久性記憶(persistent memory)——很少有人討論這個(gè)。
3、如何讓機(jī)器學(xué)會(huì)推理(reason)和規(guī)劃(plan)。
4、當(dāng)然,現(xiàn)在也有人想讓 LLM 去做推理,但我認(rèn)為那種嘗試還非常初級(jí),遠(yuǎn)遠(yuǎn)不夠。
對(duì)我而言,目前最令人興奮的東西,其實(shí)是那些也許要再過五年才會(huì)被業(yè)界廣泛重視的學(xué)術(shù)論文里說(shuō)的東西。眼下它們看起來(lái)似乎有點(diǎn)“曲高和寡”,可我覺得它們才是未來(lái)所在。
Bill Dally:如果我們想要一個(gè)不會(huì)在“語(yǔ)言”層面去做推理、理解物理世界、擁有持久記憶,還能做規(guī)劃的系統(tǒng),那么底層的模型應(yīng)該是什么樣的呢?
Yann LeCun:現(xiàn)在很多人都在研究所謂的“世界模型(world model)”。所謂“世界模型”,就是我們大腦里都有的那種內(nèi)部模型。比如你知道,如果我從瓶子頂端推它,它可能會(huì)翻轉(zhuǎn);如果我從底部推,它可能會(huì)滑動(dòng);如果我用力過猛,它可能會(huì)彈起來(lái)。我們對(duì)現(xiàn)實(shí)世界有很多認(rèn)知,這些認(rèn)知都是在生命最初的幾個(gè)月里學(xué)到的。正是因?yàn)橛辛诉@些內(nèi)在模型,我們才可以在世界中行動(dòng)自如。而要讓機(jī)器像人一樣掌握這些東西,可比處理純語(yǔ)言要難多了。
因此,我認(rèn)為真正能應(yīng)對(duì)現(xiàn)實(shí)世界的系統(tǒng)架構(gòu),跟我們現(xiàn)在用在 LLM 上的那些完全不同?,F(xiàn)在的 LLM 都是在預(yù)測(cè)下一個(gè)“token”(離散符號(hào)),可世界是連續(xù)的、高維度的,預(yù)測(cè)“token”并不適合拿來(lái)做物理世界建模。
Bill Dally:可我們也經(jīng)常聽到人們用“token”去處理視覺,比如“vision transformer”之類,它們的效果似乎也不錯(cuò)啊。
Yann LeCun:我不是說(shuō)不能用 Transformer。我是說(shuō),如果你想讓機(jī)器真正理解世界,就不能只做簡(jiǎn)單的“下一個(gè)離散符號(hào)”預(yù)測(cè),尤其是用來(lái)處理視頻之類的連續(xù)數(shù)據(jù)的時(shí)候。重構(gòu)像素級(jí)或者離散 token 級(jí)的視頻效果都很差,因?yàn)檎鎸?shí)世界里存在太多不可預(yù)測(cè)的細(xì)節(jié),模型會(huì)在那些其實(shí)無(wú)法預(yù)測(cè)的像素上浪費(fèi)大量算力。反觀另一種思路:我們可以只在抽象層面做預(yù)測(cè),而不是在原始像素層面。這稱之為“joint embedding predictive architecture”,簡(jiǎn)稱 JEPA。做法是:把視頻或者圖像輸入到一個(gè)編碼器里,讓它輸出一個(gè)抽象的表征;然后把同一個(gè)視頻的后續(xù)部分(或者經(jīng)過某些擾動(dòng)、掩蓋的版本)也輸入另一個(gè)編碼器,再讓模型去預(yù)測(cè)后者在抽象空間里的表征會(huì)是什么,而不是去預(yù)測(cè)具體像素。這種方法要高效得多,因?yàn)樗恍枰诩?xì)節(jié)不可預(yù)測(cè)的地方浪費(fèi)資源。
Bill Dally:如果我們想要一個(gè)能在物理世界中“采取行動(dòng)”的智能體,那它必須要有一個(gè)預(yù)測(cè)器:給定當(dāng)前世界狀態(tài)和一個(gè)假想的動(dòng)作,預(yù)測(cè)執(zhí)行這個(gè)動(dòng)作之后會(huì)發(fā)生什么,這樣才能規(guī)劃出實(shí)現(xiàn)目標(biāo)的那條行動(dòng)路徑??涩F(xiàn)在大多數(shù)做“推理”的 LLM,其實(shí)是用大規(guī)模隨機(jī)生成,然后再?gòu)囊欢研蛄欣镞x一個(gè)最優(yōu)解,類似隨機(jī)寫代碼再做篩選的做法。這你怎么看?
Yann LeCun:是的,我覺得這種“先隨機(jī)生成大量token,再用第二個(gè)模型去評(píng)分篩選”的辦法實(shí)在太粗糙了。如果哪天有人要寫個(gè)很短的程序,或許可以用這種方法,但程序稍微一長(zhǎng),搜索空間就會(huì)爆炸,根本沒法做。
二、AI的未來(lái)發(fā)展
Bill Dally:現(xiàn)在很多人都在說(shuō) AGI(或者你稱之為 AMI——Advanced Machine Intelligence)“快要來(lái)了”。你對(duì)此怎么看?到底還有多遠(yuǎn)?
Yann LeCun:我不喜歡“AGI”這個(gè)說(shuō)法,因?yàn)楹芏嗳擞盟复熬哂腥祟愃街悄艿南到y(tǒng)”,可人類智能其實(shí)相當(dāng)“專一化”,說(shuō)它“通用”并不準(zhǔn)確。所以我更愿意用“AMI”(高級(jí)機(jī)器智能)。我覺得那種會(huì)構(gòu)建物理世界模型、擁有持久記憶、會(huì)推理和規(guī)劃的系統(tǒng),我們大概會(huì)在三到五年里先在小規(guī)模上搞出一些眉目,然后再花時(shí)間把它做大、做強(qiáng),最終或許能到達(dá)類似人類的智能水平。歷史上一波又一波的 AI 研究者,一發(fā)現(xiàn)新范式就會(huì)說(shuō):“再過五年、十年就能做出超越人類的通用智能!” 已經(jīng) 70 年了一直都是這樣,每過十年就有一波?,F(xiàn)在這波熱潮里也有人這么說(shuō),但我認(rèn)為還是錯(cuò)誤的。純靠規(guī)?;?LLM 或者大規(guī)模生成加篩選 token 來(lái)沖擊所謂“人類水平”,這根本不現(xiàn)實(shí)。但并不是說(shuō)它會(huì)無(wú)限遠(yuǎn)。也許十年之內(nèi),AI 在許多任務(wù)上會(huì)變得很強(qiáng),甚至有人說(shuō)它能像一群博士一樣工作,這些可能在一些具體應(yīng)用上有道理。但若你說(shuō)要在所有領(lǐng)域都全面超越人類,那還遠(yuǎn)遠(yuǎn)不夠。
Bill Dally:AI 的應(yīng)用已經(jīng)在很多方面改善人們的生活,比如醫(yī)療、交通等。你覺得哪些應(yīng)用是最能造福人類的?
Yann LeCun:顯而易見就是在科學(xué)和醫(yī)學(xué)領(lǐng)域的應(yīng)用,我覺得這會(huì)比我們現(xiàn)在想象的還要重大。從蛋白質(zhì)折疊到藥物設(shè)計(jì),再到對(duì)生命機(jī)制的研究,都很有前景。再比如,醫(yī)療影像里就大量用到深度學(xué)習(xí),現(xiàn)在做乳腺 X 光檢測(cè)、MRI 重建,甚至只是減少病人在 MRI 里停留的時(shí)間,都已經(jīng)依賴 AI。在交通方面,很多汽車現(xiàn)在都配備了駕駛輔助、自動(dòng)緊急制動(dòng)等系統(tǒng),在歐洲是強(qiáng)制要求的。它們能減少 40% 的碰撞概率,就能挽救許多生命。這些都不是生成式 AI 或 LLM,而是感知類的深度學(xué)習(xí)。當(dāng)然,LLM 也有它的價(jià)值,能應(yīng)用到不少產(chǎn)品或服務(wù)中,但在真正部署時(shí),需要達(dá)到某種可靠度,尤其在安全和責(zé)任要求高的場(chǎng)景,比如自動(dòng)駕駛,你必須非常精確才行,這比人們想象的要難,也要花更長(zhǎng)時(shí)間。但如果場(chǎng)景對(duì)錯(cuò)誤率沒有那么苛刻,比如有人類在做復(fù)查,或者只是娛樂、教育,那就更容易發(fā)揮價(jià)值,也能很快提升生產(chǎn)力。
Bill Dally:是的,在對(duì)安全性有極高要求的自動(dòng)駕駛上面,一點(diǎn)差錯(cuò)就很嚴(yán)重,但在一些其他領(lǐng)域只要整體上能帶來(lái)好處,就值得去做。談到“讓人類變得更高效”這個(gè)角度,的確有不少這類輔助應(yīng)用,比如程序員的代碼生成工具。如果它不能代替人類也無(wú)所謂,只要它能讓人更有效率就好,對(duì)吧?
Yann LeCun:完全同意。現(xiàn)在最實(shí)用的就是提高效率,讓人類能夠擁有“更強(qiáng)力的工具”。要說(shuō)取代人類,目前我覺得多數(shù)情況下還是“不可能”,更可能的是把那些工作方式改變,讓我們成為決策者。換句話說(shuō),未來(lái)我們會(huì)擁有一批比我們更聰明的“虛擬員工”為我們服務(wù);我很喜歡和比我聰明的人一起工作,這種感覺最好了。
Bill Dally:AI 也有潛在的負(fù)面用途,比如深度偽造、虛假信息傳播等,還可能帶來(lái)各種情感傷害。你最擔(dān)心的是什么?我們?cè)撊绾螒?yīng)對(duì)這些風(fēng)險(xiǎn)?
Yann LeCun:在 Meta,我們對(duì)安全和對(duì)抗攻擊非常熟悉。令人驚訝的是,直到現(xiàn)在,我們也沒有看到人們大規(guī)模用生成式 AI 去攻擊社交平臺(tái),或者用深度偽造在平臺(tái)上大肆搞破壞。并不是說(shuō)沒有這種內(nèi)容,而是我們還沒有看到一個(gè)大規(guī)模泛濫、令所有人都束手無(wú)策的局面。回想 2022 年秋季,Meta 有個(gè)小團(tuán)隊(duì)做了一個(gè)叫 Galactica 的大型語(yǔ)言模型,它訓(xùn)練了幾乎所有能搜集到的科學(xué)文獻(xiàn)。我們當(dāng)時(shí)開源了代碼,也寫了長(zhǎng)文介紹原理,還在線上放了一個(gè)可以試玩的 demo。結(jié)果很多人在社交媒體上怒斥,說(shuō)這會(huì)毀掉科學(xué)交流體系,“現(xiàn)在任何傻子都能用它寫一篇看似專業(yè)的論文,宣揚(yáng)吃碎玻璃的好處”,之類的負(fù)面評(píng)價(jià)。那個(gè)小團(tuán)隊(duì)被嚇得連覺都睡不好,最后索性把 demo 下線了,但保留了代碼和論文。當(dāng)時(shí)我們就想:“世界還沒準(zhǔn)備好接納這種技術(shù),大家都不感興趣?!苯Y(jié)果三周后,ChatGPT 出來(lái)了,人們卻好像迎接救世主一樣狂熱贊美。我們都懵了,不明白為什么此前 Galactica 遭到全面的口誅筆伐,可 ChatGPT 就成了香餑餑,OpenAI 自己似乎也對(duì)這種現(xiàn)象感到意外。很多時(shí)候,這只是公眾的認(rèn)知和印象問題?;氐侥阏f(shuō)的風(fēng)險(xiǎn),我覺得對(duì)付風(fēng)險(xiǎn)的手段同樣是更好的 AI。至于那些極端“世界末日”論調(diào),我不太信。歷史上很多技術(shù)也都被預(yù)測(cè)會(huì)給世界帶來(lái)毀滅,但人類都會(huì)慢慢適應(yīng)。
三、技術(shù)挑戰(zhàn)與展望
Bill Dally:你是一個(gè)在歐洲和美國(guó)都有生活的人,對(duì)全球視角可能比較敏銳。你認(rèn)為未來(lái)的 AI 創(chuàng)新主要會(huì)來(lái)自哪里?
Yann LeCun:全球各地都有聰明人,好點(diǎn)子可以來(lái)自世界任何地方,沒有人能壟斷創(chuàng)新。要想有好創(chuàng)意,你需要和不同的人交流,這也是為什么我一直倡導(dǎo)開源平臺(tái)、倡導(dǎo)共享代碼。過去十幾年,我們?cè)谏疃葘W(xué)習(xí)上之所以能突飛猛進(jìn),很大程度就是因?yàn)榇蠹业幕ハ嘟涣骱突ハ嘭暙I(xiàn)代碼。一個(gè)生動(dòng)例子是 2015 年在微軟亞洲研究院北京實(shí)驗(yàn)室完成的 ResNet 工作。這篇論文是過去十年全科學(xué)領(lǐng)域被引用次數(shù)最多的論文,作者是一批中國(guó)科學(xué)家,第一作者是何愷明(Kaiming He)。后來(lái)他到 Meta 的 FAIR 部門工作了八年,現(xiàn)在到 MIT 當(dāng)教授了。你看,這就是創(chuàng)新會(huì)到處流動(dòng)的例子。
Bill Dally:那像 Meta 的開源策略——比如說(shuō) Llama,你們花了大量資源去訓(xùn)練、微調(diào),再免費(fèi)開源給所有人用。這樣做的利弊是什么呢?
Yann LeCun:如果你的公司純粹想靠“賣模型”來(lái)掙錢,那肯定不愿意開源。但如果你像 Meta 或 Google 這樣有其他收入來(lái)源,比如廣告,那么你的目標(biāo)就不是直接在 LLM 上賺錢,而是要把它融入你的產(chǎn)品,或者推動(dòng)產(chǎn)業(yè)生態(tài)發(fā)展,吸引全球人才共建。事實(shí)就是,大家都在做開源,大家都在發(fā)論文,碰撞想法,各種工具也都越來(lái)越開放。你如果想去壟斷,那基本上難以持久。開源給整個(gè)領(lǐng)域打下很好的生態(tài)環(huán)境。就像當(dāng)年 PyTorch 出來(lái)之后,加速了無(wú)數(shù)項(xiàng)目,Llama 出來(lái)以后也是一樣。
從更宏大的角度看,我們最后會(huì)需要各種不同的“大模型”,因?yàn)槭澜缒敲炊嗾Z(yǔ)言、文化、價(jià)值觀、政治立場(chǎng),不可能靠一兩個(gè)封閉大模型就囊括所有需求。所以我們必須要有一個(gè)開放的平臺(tái),讓世界各地的人都能在上面搭建自己的“助手”,就像我們需要一個(gè)多元的媒體環(huán)境,而不是所有人都只看同一家媒體的新聞,否則這對(duì)民主是有害的。這就需要開源來(lái)保證多元化。另外,有了開源,你還可以在自己公司里拿到模型回來(lái)做私有微調(diào),比如有些數(shù)據(jù)你根本不想上傳到別人服務(wù)器,這些在開放模型上都能輕松實(shí)現(xiàn)。所以開源在商業(yè)上也很有吸引力。
Bill Dally:我印象很深的是,黃仁勛在主題演講中舉了一個(gè)例子,說(shuō)用一個(gè)“代理式(agentic)”的 LLM 幫忙規(guī)劃婚禮座位,會(huì)在推理階段跑許多推斷迭代,這個(gè)過程其實(shí)是把算力更多地用在“推斷時(shí)的搜索”,而不是把一切都擠進(jìn)訓(xùn)練階段。你怎么看訓(xùn)練和推斷之間的這種取舍?
Yann LeCun:我同意黃仁勛所說(shuō)的“在推斷階段進(jìn)行推理”會(huì)非常重要。不過,我對(duì)目前 LLM 用“多次生成 + 搜索篩選”那種做推理的方式還不太認(rèn)可,因?yàn)槿祟愓嬲摹巴评怼辈⒉皇窃陔x散 token 上完成的,而是在大腦某個(gè)抽象空間里完成的。比如想象一個(gè)立方體漂浮在你面前,然后讓它圍繞垂直軸旋轉(zhuǎn) 90 度——這不是靠語(yǔ)言符號(hào)來(lái)思考的。貓也會(huì)在跳躍前想象軌跡,去推理能否跳到某個(gè)家具上,這明顯也不是“憑語(yǔ)言”完成的。所以我認(rèn)為我們需要的是一種新架構(gòu),讓系統(tǒng)能在內(nèi)部的表征空間里做推理,而不是在輸出 token 這一步完成所有推理。我們把這種結(jié)構(gòu)稱為“JEPA 世界模型”,也就是前面提到的那種 joint embedding predictive architecture。它能讓機(jī)器在抽象的表征層面去理解物理世界,并做計(jì)劃、推理。
Bill Dally:你之前說(shuō),這套思路可能需要更強(qiáng)的硬件支持。過去十年來(lái),GPU 在深度學(xué)習(xí)訓(xùn)練和推理方面的性能提升了 5,000 到 10,000 倍;再加上集群擴(kuò)展,算力就更夸張。你覺得接下來(lái)會(huì)發(fā)生什么?還需要什么?
Yann LeCun:我們確實(shí)需要越來(lái)越強(qiáng)的硬件,尤其是如果我們要做那種基于“抽象世界模型”的推理。在心理學(xué)里有“系統(tǒng)一”和“系統(tǒng)二”的概念:系統(tǒng)一負(fù)責(zé)已經(jīng)熟練化、可自動(dòng)化的任務(wù),而系統(tǒng)二則涉及比較費(fèi)腦子的推理、規(guī)劃。對(duì)一個(gè)新手司機(jī)來(lái)說(shuō),最初幾小時(shí)開車,你要?jiǎng)佑谩跋到y(tǒng)二”去仔細(xì)琢磨每一個(gè)動(dòng)作,可老手開車則依賴“系統(tǒng)一”,幾乎是下意識(shí)完成。所以我設(shè)想的智能體,也需要先用“系統(tǒng)二”去做抽象推理,但做同樣的事情多了,就會(huì)把它編譯進(jìn)類似“策略網(wǎng)絡(luò)(policy)”里,下一次就能直接反應(yīng),不用每次都調(diào)動(dòng)推理能力。現(xiàn)在多數(shù)的 LLM 都只做“系統(tǒng)一”,有的努力想往“系統(tǒng)二”那邊擴(kuò)展,但我覺得最終還是需要更“正統(tǒng)”的系統(tǒng)二架構(gòu)。
Bill Dally:也有不少人想做類腦硬件,比如脈沖神經(jīng)網(wǎng)絡(luò)(SNN),或者模擬大腦突觸的模擬電路,你覺得這些會(huì)替代或補(bǔ)充 GPU 嗎?
Yann LeCun:短期內(nèi)我不看好。上世紀(jì) 80 年代末和 90 年代初,我在貝爾實(shí)驗(yàn)室就是在做模擬電路的神經(jīng)網(wǎng)絡(luò),當(dāng)時(shí)試了各種模擬、混合模擬-數(shù)字的方案,最終還是數(shù)字 CMOS 走到了現(xiàn)在,已經(jīng)形成了極為成熟的技術(shù)生態(tài),讓其它路徑追趕非常困難。即便是大腦,其實(shí)在神經(jīng)元間的通訊也是離散的“脈沖”式,只有在非常微小的生物里才是模擬信號(hào)。再加上硬件復(fù)用的問題——模擬芯片無(wú)法“多次復(fù)用”去跑不同的模型,就需要大量芯片拼接,得不償失。當(dāng)然,你要是做特別小的設(shè)備,比如一款超級(jí)低功耗的微控制器,拿來(lái)給吸塵器或割草機(jī)做一點(diǎn)視覺感知,那也許還有一些空間。但整體來(lái)看,大規(guī)模通用 AI 計(jì)算還是離不開當(dāng)前的數(shù)字芯片。
四、量子計(jì)算
Bill Dally:那你對(duì)其他新技術(shù),比如量子計(jì)算或超導(dǎo)計(jì)算怎么看?它們能在 AI 上帶來(lái)重大突破嗎?
Yann LeCun:超導(dǎo)我不是很了解,不敢下定論。光學(xué)技術(shù)我見證過好多代了,從 80 年代開始就有人在說(shuō)用“光學(xué)計(jì)算”來(lái)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò),但都沒能真正落地。量子計(jì)算我也比較懷疑,除了用來(lái)模擬量子系統(tǒng)(比如量子化學(xué))這種非常特定的場(chǎng)景外,我看不出它對(duì)通用計(jì)算或者 AI 推理有多大幫助。
Bill Dally:你一直強(qiáng)調(diào),要讓 AI 學(xué)會(huì)像嬰兒那樣從觀察中學(xué)習(xí),這對(duì)硬件需求可不小。你覺得我們還需要哪些關(guān)鍵突破?
Yann LeCun:主要還是要找到對(duì)的訓(xùn)練方法。在卷積神經(jīng)網(wǎng)絡(luò)從沒法穩(wěn)定訓(xùn)練,到后來(lái)大家熟練掌握各種技巧(比如殘差連接、Adam 優(yōu)化、合適的激活函數(shù)、正則化等等)之間,花了好長(zhǎng)時(shí)間摸索,才有了如今的成功。自然語(yǔ)言處理也經(jīng)歷過類似過程,從最初的“去噪自編碼器”方法(如 BERT)到后來(lái)的 GPT 風(fēng)格,才出現(xiàn)了指數(shù)級(jí)的進(jìn)步。我們現(xiàn)在對(duì) JEPA 這種架構(gòu)的訓(xùn)練還沒有非常成熟的“完整配方”。一旦有了合適的技巧,讓我們可以大規(guī)模訓(xùn)練、穩(wěn)定收斂,而不會(huì)出現(xiàn)各種崩潰或無(wú)效,那就會(huì)迎來(lái)又一次巨大飛躍。
Bill Dally:我們現(xiàn)在收到提示,說(shuō)時(shí)間快到了。在結(jié)束前,你還有什么想跟大家分享的嗎?
Yann LeCun:我想再次強(qiáng)調(diào),AI 的進(jìn)步、乃至于發(fā)展到所謂“人類水平智能”,不太可能是“某個(gè)時(shí)刻一蹴而就”,而會(huì)是持續(xù)不斷的累積過程,需要全球各地研究者的貢獻(xiàn)。不會(huì)出現(xiàn)那種“有人在暗中做研究,突然在某一天放出一個(gè)毀天滅地的超級(jí)智能”這種事。如果真有一天出現(xiàn)了“比人更聰明的 AI”,我們也不會(huì)在一小時(shí)內(nèi)就被滅絕,因?yàn)檫@不可能是一個(gè)瞬間事件,而是一個(gè)漸進(jìn)過程。與此同時(shí),我們要認(rèn)識(shí)到,這種大規(guī)模的進(jìn)步需要更多的人才和開放協(xié)作,包括開源平臺(tái)、大規(guī)模訓(xùn)練等等。最后,在未來(lái),我們會(huì)有各種各樣的 AI 助手,真正融入我們的日常生活,也許通過智能眼鏡或者別的穿戴設(shè)備時(shí)刻陪伴我們。我們就像他們的“老板”一樣——讓這些比我們聰明的系統(tǒng)為我們干活。大家都會(huì)變成“管理者”,是不是有點(diǎn)可怕(笑)?但事實(shí)就是,我們大多數(shù)人并不排斥與比自己更聰明的人共事,這其實(shí)挺好的。
Bill Dally:哈哈,那我們就以這個(gè)愿景為結(jié)束語(yǔ)吧。非常感謝你帶來(lái)的深度見解,希望以后還能和你繼續(xù)交流。
Yann LeCun:謝謝,謝謝大家!
星標(biāo)公眾號(hào), 點(diǎn)這里 1. 點(diǎn)擊右上角 2. 點(diǎn)擊"設(shè)為星標(biāo)" ← AI深度研究員 ? ← 設(shè)為星標(biāo)
原文鏈接:https://www.youtube.com/watch?v=UYnm_h6EPFg
排版:Atlas
編輯:深思
主編:圖靈
熱門跟貼