打開網(wǎng)易新聞 查看精彩圖片

新智元報道

編輯:編輯部 ZNH

【新智元導讀】NYU機器學習教授痛心表示,如今很多大學的ML課程,已經(jīng)拋棄了基礎概念和經(jīng)典。他曬出的課程大綱,引起了哈佛CS教授的贊同:很高興我們并不孤單,想在大綱中保留基礎概念可太難了。甚至,印度和美國的大學生都在抱怨,學校的機器學習課太垃圾了,全靠自己自學!

就在剛剛,NYU教授Kyunghyun Cho呼吁:如今大學的機器學習課程,已經(jīng)拋棄了經(jīng)典!

在他看來,很多課程都拋棄了關于ML和深度學習的基礎概念,這很危險。

打開網(wǎng)易新聞 查看精彩圖片

他提出了一個深刻的議題:在LLM和大規(guī)模計算力普及的今天,機器學習一年級研究生課程該教些什么呢?

對此,教授給出了一種獨辟蹊徑的方式——

教授所有能用隨機梯度下降(SGD)解決,但又不是LLM的內(nèi)容,并且讓學生去閱讀一些早期的經(jīng)典論文。

打開網(wǎng)易新聞 查看精彩圖片

在看完他曬出的講座筆記和教學大綱后,不少網(wǎng)友表示贊嘆。

有人評論說:2025年的機器學習課程里竟然還教RBM(受限玻爾茲曼機)?這絕對是獨一無二的課程,太特別了。

打開網(wǎng)易新聞 查看精彩圖片

一位哈佛的助理教授說,自己非常喜歡這個教學大綱,和哈佛的CS1810課程大綱基本類似,只是少了一些進階主題和生成模型的類型。

要知道,想把深度學習前期的基礎概念保留在課程大綱中,時常會受到阻力,他表示,很高興看到自己并不孤單。

打開網(wǎng)易新聞 查看精彩圖片

NYU教授的課程大綱:有92年的論文

NYU教授曬出的講座筆記如下。

可以看到,在這門課程中他首先引入了機器學習的基本概念,比如感知機與間隔損失函數(shù)、Softmax與交叉熵損失函數(shù),反向傳播,隨機梯度下降(SGD),泛化與模型選擇,超參數(shù)調優(yōu)與模型選擇等。

隨后,課程的第3章開始教授神經(jīng)網(wǎng)絡的基本構建模塊,如歸一化、卷積模塊、循環(huán)模塊、注意力機制等。

第4章教授的是概率機器學習與無監(jiān)督學習,包括能量函數(shù)的概率解釋,變分推斷與高斯混合模型,連續(xù)潛變量模型,VAE等。

在第5章,學生們會學到受限玻爾茲曼機(RBM)、基于能量的生成對抗網(wǎng)絡(EB-GAN)、自回歸模型等無向生成模型。

在打好這些基礎后,學生們才會學習強化學習、元學習、因果推斷這些內(nèi)容。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

左右滑動查看

在這門機器學習課程的教學大綱中,教授也強調——

如今,機器學習系統(tǒng)已經(jīng)在飛速發(fā)展。我們經(jīng)常使用隨機梯度下降(或其變體),在包含數(shù)百萬乃至數(shù)十億訓練樣本的大型數(shù)據(jù)集上,訓練擁有數(shù)百萬乃至數(shù)十億參數(shù)的大規(guī)模模型。

這些令人驚嘆的成果,都離不開數(shù)學、概率、統(tǒng)計和計算機科學中那些簡單而基礎的理念。

而這門課,強調的就是這些基礎概念,從而讓學生們能更系統(tǒng)、更嚴謹?shù)乩斫猬F(xiàn)代的大規(guī)模機器學習算法。

打開網(wǎng)易新聞 查看精彩圖片

教學大綱中推薦的論文,也并不是近幾年的爆款時興論文,反而是從上世紀90年年代至2022年的一些經(jīng)典論文。

比如神經(jīng)網(wǎng)絡先驅之一的Ronald Williams,靠一篇關于反向傳播算法的論文,引發(fā)了神經(jīng)網(wǎng)絡研究的熱潮。

教授推薦列表的第一篇文章,就是他發(fā)表于1992年的「Simple Statistical Gradient-following Algorithms for Connectionist Reinforcement Learning」。

第二篇年代久遠的論文,就是現(xiàn)任微軟人工智能研究院主任、英國計算機科學家Christopher Bishop的發(fā)表于1994年的「Mixture density networks」。

圖靈三巨頭的不少經(jīng)典論文也入選了,比如LeCun的「Efficient BackProp」,Hinton的「Training Products of Experts by Minimizing Contrastive Divergence」等。

總之,不追逐潮流,只讀經(jīng)典。

打開網(wǎng)易新聞 查看精彩圖片

哈佛

哈佛的CS 1810課程,此前在網(wǎng)上就曾引起熱議。

打開網(wǎng)易新聞 查看精彩圖片

教材:https://github.com/harvard-ml-courses/cs181-textbook/blob/master/Textbook.pdf

從課程大綱中可以看出,這門課非常全面嚴謹?shù)亟榻B了機器學習、概率推理等基礎知識。

內(nèi)容涵蓋了監(jiān)督學習、集成方法與提升方法、神經(jīng)網(wǎng)絡、支持向量機、核方法、聚類與無監(jiān)督學習、最大似然估計、圖模型、隱馬爾可夫模型、推斷方法、強化學習等。

而且這門課因為是面向高年級本科生,所以需要學生能用Python寫比較復雜的程序,還需要具備概率論、微積分、線代的基礎知識。

正如此前提到的助理教授所說,這份課程大綱中保留了很多深度學習前期的基礎概念,這在當今竟然已經(jīng)不多見了。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

左右滑動查看

MIT

另一傳統(tǒng)牛校MIT 2024年的機器學習講義,是下面這樣的。

打開網(wǎng)易新聞 查看精彩圖片

教材:https://introml.mit.edu/_static/spring24/LectureNotes/6_390_lecture_notes_spring24.pdf

這門機器學習的入門課,是為本科生和研究生設計。

內(nèi)容包括監(jiān)督學習(如線性回歸、邏輯回歸、神經(jīng)網(wǎng)絡)、無監(jiān)督學習(如聚類、主成分分析)、概率模型以及強化學習的基礎。

跟哈佛的CS 1810相同,這門課除了理論,也非常強調實踐。

學生需要完成多項編程項目,使用Python和相關庫(如NumPy、PyTorch)實現(xiàn)模型,并通過考試和項目展示對理論的理解,因此必須具備基礎數(shù)學和編程背景。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

左右滑動查看

經(jīng)典永不過時

除了AI領域之外,有些學科本身就傾向于學習經(jīng)典內(nèi)容,比如數(shù)學。

有網(wǎng)友表示,在許多本科和研究生的數(shù)學課程中,5、60年代的教學大綱仍然被認為是黃金標準。

打開網(wǎng)易新聞 查看精彩圖片

對此,reddit上的網(wǎng)友Cheezees表示贊同,他說他的父親——一名兼職教授,就認為《Elementary Analysis》是最好的數(shù)學教科書。這本書首版于1980年,但至今仍在使用。

還有像是《Principles of Mathematical Analysis》(數(shù)學分析原理)這種出版于1953年的教材,現(xiàn)在仍在全美超過80%的榮譽本科分析課程中使用。

打開網(wǎng)易新聞 查看精彩圖片

對于有些學科教材過時的問題,也不是沒有解決的辦法。

比如,這位網(wǎng)名Rain-Stop的生物材料教授稱,雖然他喜歡的一本教材自從2013年就沒有更新了,但是他使用過去3-4年內(nèi)發(fā)表的期刊論文來涵蓋領域內(nèi)的進展。

經(jīng)典教材配合上最新論文,這也不失為一個好辦法。

打開網(wǎng)易新聞 查看精彩圖片

國內(nèi)

接下來,我們看看國內(nèi)高校AI專業(yè)的培養(yǎng)方案。

比如北大信科智能科學與技術專業(yè)(智班)的24年本科生培養(yǎng)方案,是這樣的。

兩門公共必修課,是計算概論和數(shù)據(jù)結構與算法。

打開網(wǎng)易新聞 查看精彩圖片

專業(yè)基礎課,是高數(shù)、線代和信科技術概論。

打開網(wǎng)易新聞 查看精彩圖片

專業(yè)核心課中,包括人工智能引論、算法設計與分析、機器學習、多模態(tài)學習等。

打開網(wǎng)易新聞 查看精彩圖片

專業(yè)選修課中,還包括不少計算基礎與編程類、機器感知類、數(shù)據(jù)與機器智能類的課程。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

下面是一份專業(yè)課程地圖全覽。

打開網(wǎng)易新聞 查看精彩圖片

再比如,23年清華叉院的計算機科學與技術(人工智能班)專業(yè)本科培養(yǎng)方案。

打開網(wǎng)易新聞 查看精彩圖片

這個培養(yǎng)方案涵蓋了數(shù)學、物理、計算機科學基礎(如數(shù)據(jù)結構、算法設計)、人工智能(如機器學習、深度學習)以及工程實踐。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

對數(shù)學和基礎理論課程的重視,為學生深入理解算法和系統(tǒng)設計奠定了堅實基礎。

另外,方案中還安排了豐富的實踐環(huán)節(jié),體現(xiàn)了清華對培養(yǎng)學生動手能力和創(chuàng)新能力的重視。例如,學生需完成多個編程項目和跨學科綜合設計,將理論應用于實際場景。

課程中還有如量子計算和人工智能交叉項目(AI+X)這些前沿領域。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

學生抱怨:大學ML課程太垃圾

有趣的是,就在去年,一位印度學生曾在reddit上發(fā)帖,抱怨學校的機器學習課程太垃圾。

打開網(wǎng)易新聞 查看精彩圖片

他來自印度一所四級地方學院,覺得學校的機器學習課程問題很大。

具體來說就是,課程使用了太多技術術語,卻沒有真正解釋深入的工作原理。

比如他們的其中一部分教學大綱是這樣的。

1. 人工智能/機器學習簡介,線性回歸,邏輯回歸,貝葉斯分類,決策樹

2. 正則化,支持向量機

3. 集成學習,自助聚集(bagging),提升法(boosting)

4. 神經(jīng)網(wǎng)絡,卷積神經(jīng)網(wǎng)絡

5. Seq2Seq模型,注意力機制,Transformer

這位學生表示,課程大綱只有第一章和神經(jīng)網(wǎng)絡導論涉及數(shù)學,其余部分都是一堆廢話。

他認為,這門課作為一門工程課程,實在太抽象了:使用了一些華麗的術語,卻并未深入解釋任何內(nèi)容。

雖然只要記住這些花哨的單詞就能通過考試,但一遇到項目,他就傻眼了。這些項目至少需要博士學位才能理解,需要采用GAN、可解釋AI、神經(jīng)架構搜索、視覺Transformer、優(yōu)化等技術。

所以,絕大多數(shù)學生都只能在GitHub上找到一些現(xiàn)成的項目,復制粘貼論文,然后用Humanize AI降低查重率。

然而發(fā)帖人表示,自己并不喜歡抄襲別人的作品,但「AI正被強塞進自己的喉嚨」。本來如果按照自己的節(jié)奏慢慢學習,應該會喜歡ML/AI的。

但是現(xiàn)在,自己可能要花好幾年才能理解這些論文,更不用說想到一個新的項目點子了。

有人指出,這個現(xiàn)象反映出印度教育體系的一個典型問題:把流行術語和技術灌給學生,概念卻極其空洞,如果缺乏必要的數(shù)學和統(tǒng)計學背景,就不會理解這些算法的「why」和「how」。

打開網(wǎng)易新聞 查看精彩圖片

只有對線代、概率論、微積分有扎實理解,才能理解向量機或神經(jīng)網(wǎng)絡等算法的內(nèi)部原理。如果沒打好基礎就跳到Transformer和GAN等高級概念,就像造摩天大樓卻不打地基一樣。

因此,他建議這位迷茫的學生回去學好基礎數(shù)學,比如Marc Peter Deisenroth 的 《機器學習的數(shù)學》,然后在Coursera和edX平臺學好AI課程。其中吳恩達在Coursera上的機器學習和深度學習課就堪稱典范。

不止印度,美國大學也一樣

甚至在這個帖子下,有個來自美國的學生抱怨說,美國大學也同樣存在這個問題。

他來自自己所在州最好的大學,正在讀七年級。系里會在五年級教學生網(wǎng)絡技術,六年級教人工智能,七年級教機器學習。

但課程結構非?;靵y,甚至教授們根本不講算法原理,只會讀PPT,甚至懶得教數(shù)學。

打開網(wǎng)易新聞 查看精彩圖片

這位學生意識到:如果想學好機器學習,只能靠自己,去找網(wǎng)課和教材自學。

比如他推薦了一本不錯的教材「Hands on Machine Learning with Scikitlearn, Keras and Tensorflow」,還訂閱了一些不錯的YouTube頻道。

其實無論是在印度還是美國大學中,問題的核心就在于,如今AI/ML的發(fā)展速度實在太快了,任何大學都無法跟上,甚至一些機構也舉步維艱。

打開網(wǎng)易新聞 查看精彩圖片

所以,如果真的只靠學校課程,學生是不太可能學好AI/ML的,只能選擇靠自己。

諾獎得主建議

基礎很重要,要學會學習

大學的教材和課程可能會過時,但不會阻礙一個人的學習。

今年早些時候,劍橋大學的學生們向諾貝爾獎得主、Google DeepMind首席執(zhí)行官Demis Hassabis提交了問題,他們中的許多人想知道在AI時代應該如何安排他們的時間。

Hassabis的建議是——把時間花在「學習如何學習」上。

打開網(wǎng)易新聞 查看精彩圖片

「我認為最重要的是真正理解自己——利用本科階段的時間更好地了解自己,以及自己最有效的學習方式。」

在這之中,適應能力至關重要,也就是「如何快速掌握新知識并運用自如」。

由于技術不斷發(fā)展,如今的大學生們將進入一個充滿「顛覆和變革」的世界,而這是唯一可以預見的。

在他看來「AI,以及VR、AR和量子計算等領域,在未來五到十年內(nèi)都極具潛力」,每一次變革都蘊藏著巨大的機遇。

Hassabis建議學生們專注于基礎知識。雖然新潮流層出不窮,但最好避免被那些「今天風靡一時,明天就無人問津」的事物所干擾。

「我最喜歡的科目是計算理論和信息論,還有研究像圖靈機這樣的東西。這些知識貫穿了我的整個職業(yè)生涯。我喜歡數(shù)學的底層邏輯,以及許多傳統(tǒng)的、基礎性的研究」。他補充說,學生們也不應該忽略自己的興趣。

Hassabis認為,畢業(yè)生們應該能夠將對自身興趣的深入理解與他們所掌握的核心技能「結合」起來。

Hassabis建議道:「在課余時間,你應該積極探索自己熱愛的領域。對我來說,那就是AI?,F(xiàn)在涌現(xiàn)出了大量的工具——其中許多都非常容易上手,而且是開源的——這樣你才能在畢業(yè)時真正掌握最前沿的知識?!?/p>

Hassabis同時建議研究生們培養(yǎng)跨領域的專業(yè)知識。例如,如果他們學習的是AI,那么他們也應該了解如何將其應用到最佳的領域。

因為在未來十年左右,多學科研究將會成為主流。

在AI和STEM領域交叉的地方,可能會有很多「唾手可得的成果」,因此重要的是要對這兩個領域都有足夠的了解,才能明白什么是「正確的問題」——因為提出這些問題可能會帶來突破性的進展。

Hassabis說:「選擇問題就像擁有某種品味或嗅覺,或者說是一種直覺,知道『什么是正確的問題?』以及『現(xiàn)在是否是解決這個問題的最佳時機?』因為時機非常重要,你肯定不想超前時代50年?!?/p>

盡管Hassabis認為人們無法真正培養(yǎng)出那種第六感,但他建議大家保持開放的心態(tài),隨時準備抓住機遇。

「機遇可能來自任何地方,所以要成為一個多學科的人,讓自己接觸到各種各樣的想法」。

參考資料:

https://x.com/kchonyc/status/1920479652746805319

https://www.businessinsider.com/google-deepmind-ceo-advice-college-students-ai-change-2025-5