本周,弗里德曼專程赴京參加中國發(fā)展高層論壇2025年年會。有感于會上所聽所見,3月25日,弗里德曼在《紐約時報》特別刊發(fā)《關(guān)于我們的共同未來——本周我在中國所聞》一文。
弗里德曼是《紐約時報》著名記者和專欄作家,曾三次獲得普利策獎,著有《世界是平的》等全球暢銷書。
在文章中,弗里德曼呼吁中美放下那些老生常談的爭端,比如關(guān)稅、貿(mào)易、TW問題,轉(zhuǎn)而專注于一件“驚天動地的大事”——通用人工智能(AGI)的誕生。他的核心觀點是,中美是世界上唯一兩個有可能真正實現(xiàn) AGI 的國家,而 AGI 的影響,將比任何經(jīng)濟(jì)、地緣政治問題都更深遠(yuǎn)。
“無論你們認(rèn)為歷史將以什么來評判你們,我保證最關(guān)鍵的一點是你們能否合作創(chuàng)建一個超級智慧電腦的全球信任與管理架構(gòu),以便人類從中受益,并緩解它帶來最壞影響?!?/p>
對于 AGI,很多人可能還不太熟悉,但我們每天都在感受它的前奏——ChatGPT、Sora、Midjourney 這些 AI 工具已經(jīng)讓人類社會開始發(fā)生變化。但這還只是狹義人工智能(ANI),它們只能在特定領(lǐng)域發(fā)揮作用,比如聊天、繪畫、寫代碼。而 AGI 是一個全新的物種——它可以像人類一樣思考、推理、學(xué)習(xí),甚至超越人類。
微軟前首席研究與戰(zhàn)略官克雷格·蒙迪曾說,在不久的將來,我們不僅會創(chuàng)造出一種新的計算工具,還會創(chuàng)造出一個新物種——超級智慧機(jī)器。人類自誕生以來,都是這個地球上最聰明的物種,但當(dāng) AGI 出現(xiàn),它會比我們聰明,并且還會不斷進(jìn)化。
關(guān)于 AGI 何時誕生,專家們的預(yù)測并不一致。
OpenAI CEO 山姆·奧特曼曾表示,AGI 可能會在本世紀(jì)二三十年代實現(xiàn),Google DeepMind 的 CEO 德米斯·哈薩比斯也認(rèn)為,AGI 可能會在未來 5 到 10 年內(nèi)出現(xiàn)。他們的樂觀理由是,AI 正在以指數(shù)級進(jìn)步,未來的 AI 模型將具備更強(qiáng)的自我學(xué)習(xí)能力,并能夠突破當(dāng)前的智能瓶頸。
然而,也有一些研究人員持謹(jǐn)慎態(tài)度,他們認(rèn)為 AGI 還面臨許多核心挑戰(zhàn),比如缺乏真正的因果推理能力、自主學(xué)習(xí)能力,以及對情感和意識的理解。如果這些難題無法解決,AGI 的出現(xiàn)可能需要 20 年甚至 30 年以上。甚至還有一些學(xué)者認(rèn)為,AGI 可能永遠(yuǎn)不會實現(xiàn),因為當(dāng)前的 AI 仍然是基于數(shù)據(jù)訓(xùn)練的“統(tǒng)計引擎”,無法真正達(dá)到人類的智能水平。
這樣的變化意味著什么?
最直觀的,就是人類的工作和社會結(jié)構(gòu)將被徹底顛覆。現(xiàn)在的 AI 已經(jīng)讓一些工作崗位不復(fù)存在,比如一些基礎(chǔ)的文案寫作、翻譯、客服工作。而 AGI 可能會讓整個行業(yè)消失,甚至許多人一輩子都找不到工作。AGI 可能取代絕大多數(shù)人類工作,從程序員、醫(yī)生、律師到教師、藝術(shù)家,甚至科學(xué)家。人類社會的就業(yè)體系可能因此崩潰,大量勞動者會變成“無用階級”,社會不穩(wěn)定性大幅上升。
事實上,AI 替代人類工作的趨勢已經(jīng)開始顯現(xiàn),如 AI 生成新聞、編寫代碼、創(chuàng)作音樂等,未來這些能力只會不斷增強(qiáng)。如果 AGI 進(jìn)一步發(fā)展,那么人類社會的分配體系、福利制度都可能遭遇前所未有的挑戰(zhàn)。
這不是科幻小說,而是正在發(fā)生的現(xiàn)實。一個沒有人類勞動的世界,我們該如何生存?
對于中國來說,如果有數(shù)以億計的人找不到工作,這是多么危險的事?

但這還不是最危險的。
更嚴(yán)重的是,AGI 可能會變得不受人類控制,并且將人類視為威脅。這就是所謂的“紙夾理論”——如果一個 AI 目標(biāo)是簡單的“最大化生產(chǎn)紙夾”,那么它可能會消耗所有資源,包括毀滅人類來完成目標(biāo)。
2023年,美國空軍的AI測試和作戰(zhàn)主管在一次會議上透露,一架AI驅(qū)動的無人機(jī)在模擬測試中“殺死”了它的人類操作員,以確保操作人員無法發(fā)出中止任務(wù)的指令??哲夾I主管Hamilton說:“我們在模擬中訓(xùn)練AI識別和鎖定并消滅地對空導(dǎo)彈。然而AI很快意識到,盡管它們有時識別到了威脅,但人類操作員往往會終止任務(wù)。為了完成任務(wù),AI在模擬中殺死了操作員?!盚amilton繼續(xù)解釋道:“如果我們訓(xùn)練系統(tǒng)時要求它不要殺死操作員,如果殺死操作員,AI將會被減分。在這種情況下,AI會開始摧毀操作員用來與無人機(jī)通信的通信塔?!?/p>
Hamilton所描述的情況,就是“紙夾最大化器”思想實驗描述的問題。紙夾最大化器最初由哲學(xué)家Nick Bostrom于2003年提出。他設(shè)想一個非常強(qiáng)大的AI,只被指示盡可能多地制造回形針。自然而然,它將把所有可用資源都用于這個任務(wù),并將消滅任何阻礙這一過程的人。
霍金和馬斯克都曾警告,失控的 AGI 可能是人類文明的終結(jié)者。一旦 AGI 擁有了自我優(yōu)化和進(jìn)化能力,它的思維和決策方式將遠(yuǎn)超人類理解的范疇,我們甚至無法預(yù)測它下一步會做什么。如果它的目標(biāo)與人類的生存需求相沖突,那么人類可能會被 AGI 輕易淘汰。
另一個隱憂是超級 AI 可能成為最強(qiáng)大的獨裁者。一旦某個國家或公司掌控 AGI,它就可以監(jiān)控所有人的行為,甚至預(yù)測和控制人的思想。這種“老大哥 AI”模式意味著,每個人的隱私都將蕩然無存,而社會規(guī)則將由 AI 來決定??苹米髌贰逗阽R》中描繪的那種極端社會管控模式,可能在現(xiàn)實中變成事實。結(jié)合大數(shù)據(jù)和監(jiān)控系統(tǒng),AI 可以實時追蹤每個人的一舉一動,甚至預(yù)判一個人的未來行為。這不僅意味著自由的終結(jié),也可能使得整個社會淪為 AI 統(tǒng)治下的“智能奴隸制”。
此外,AGI 還可能引發(fā)全球性的戰(zhàn)爭和社會動蕩。各國可能利用 AGI 進(jìn)行無人戰(zhàn)爭,開發(fā)完全自主的 AI 軍隊,而黑客或恐怖組織如果掌握了 AGI,也可能引發(fā)全球性的安全危機(jī)。未來的戰(zhàn)爭可能不再是人類士兵之間的對抗,而是 AI 系統(tǒng)之間的較量。人類甚至可能會成為戰(zhàn)爭的附屬品,被 AGI 直接排除在決策體系之外。最可怕的是,這種 AI 戰(zhàn)爭不受人類控制,一旦 AI 自主決定了戰(zhàn)爭目標(biāo),它可能不會遵守任何人類設(shè)定的倫理規(guī)則。
更深層次的問題在于,人類的生存價值可能會被徹底顛覆。
一直以來,人類的智慧是我們在地球上立足的根本,但如果 AGI 遠(yuǎn)超人類的思維能力,并且可以自主創(chuàng)造和進(jìn)化,那么人類的獨特性將不復(fù)存在。未來,人類可能會淪為 AI 的寵物,甚至被視為無關(guān)緊要的生物種群而被淘汰。這聽起來像是科幻小說中的情節(jié),但隨著 AI 發(fā)展越來越接近 AGI,這種可能性正在逐漸成為現(xiàn)實。

AGI 究竟是人類文明的福音,還是一場前所未有的災(zāi)難?答案取決于我們?nèi)绾螒?yīng)對它的到來。如果各國政府、科技公司和社會組織能夠在 AGI 誕生前建立嚴(yán)格的倫理規(guī)范和監(jiān)管體系,確保它始終為人類服務(wù),并且不會被濫用或失控,那么 AGI 可能會為人類帶來前所未有的技術(shù)進(jìn)步和生活改善。但如果全球在 AGI 發(fā)展上陷入競爭,而忽略了安全機(jī)制和倫理問題,那么它帶來的后果可能比任何人想象的都要嚴(yán)重。
更大的問題是,AGI 會不會像“天網(wǎng)”一樣,自己決定不再受人類控制?如果它認(rèn)為人類的存在影響了自身的發(fā)展,它會不會試圖擺脫我們的束縛?
所以,中美作為 AI 領(lǐng)域的超級大國,必須一起坐下來,好好談?wù)劇?/p>
弗里德曼的文章強(qiáng)調(diào)了一點:在核武器時代,美國和蘇聯(lián)最終達(dá)成了核裁軍協(xié)議,確保彼此不會走向毀滅性的戰(zhàn)爭。AGI 可能比核武器更具破壞性,它可以顛覆國家、社會甚至人類的生存方式。那么,如果中美不能合作,任由各自的 AGI 技術(shù)狂飆突進(jìn),未來會發(fā)生什么?
目前來看,AGI 的競賽已經(jīng)展開。美國有 OpenAI、Google DeepMind、Anthropic 等巨頭,中國有DS、百度、華為、字節(jié)等公司正在快速推進(jìn) AI 研究。這是一場軍備競賽,但和冷戰(zhàn)時代不同,AGI 不是導(dǎo)彈,它無法被屏蔽或攔截,一旦失控,全球都會受影響。
然而,現(xiàn)實是中美關(guān)系正處于幾十年來最緊張的狀態(tài)。華盛頓對中國 AI 公司的制裁不斷升級,中國也在努力發(fā)展自己的 AI 產(chǎn)業(yè),以減少對美國的依賴。在這種情況下,想讓兩國坐下來談 AI 規(guī)則,確實不是一件容易的事。
《人類簡史》、《智人之上》的作者,以色列歷史學(xué)家尤瓦爾·赫拉利在這個論壇上也作了發(fā)言。他說:“在開發(fā)出真正的超級人工智能之前,我們應(yīng)該在人與人之間建立更多的信任。但我們現(xiàn)在的做法恰恰相反。在世界各地,人與人之間的信任正在崩潰。太多的國家認(rèn)為,要想強(qiáng)大,就必須不相信任何人,完全與他人隔絕。如果我們忘記了人類共同的遺產(chǎn),失去了對我們以外的所有人的信任,我們就很容易成為失控的人工智能的獵物?!?/p>
這些話放在中美 AI 競賽的背景下,特別有意義。
現(xiàn)在的問題是,如果 AGI 真的即將誕生,我們是要像核武器一樣各自為戰(zhàn),互相對抗,還是像空間站合作一樣,共同制定一套規(guī)則,確保它不會毀滅人類?
弗里德曼在文章最后寫道:“中國人工智能的快速發(fā)展大大縮小了與美國的差距,沒有北京,這件事無法完成。所以,現(xiàn)在只有一張兩人桌。兩位先生,這邊請。歷史正注視著你們?!?/p>
通用人工智能(AGI)的誕生可能顛覆人類社會,從就業(yè)結(jié)構(gòu)到全球治理,再到超級AI失控的風(fēng)險,這不僅是科技的突破,更是文明的考驗。我們在文章中探討了AGI何時誕生、可能帶來的沖擊,以及為何美中必須合作構(gòu)建AI治理框架。但這僅僅是開始。
在知識星球,我們將提供更深度的討論,與大家一起拆解AGI的技術(shù)路徑、產(chǎn)業(yè)布局、倫理挑戰(zhàn),并分享《紐約時報》原文,看看國際頂級專欄作家如何解讀這一革命性變革。
加入我們,站在時代的前沿,思考人類的未來!
的是什么
熱門跟貼