打開網(wǎng)易新聞 查看精彩圖片

導(dǎo)語:

2025年2月,蘭德公司發(fā)布《通用人工智能的五大國家安全難題》(Artificial General Intelligence’s Five Hard National Security Problems)報(bào)告。報(bào)告指出,通用人工智能(AGI)的出現(xiàn)存在可能性,美國國家安全界需要嚴(yán)肅對待這一議題。然而,AGI的發(fā)展軌跡及其突破性影響,乃至后AGI時(shí)代的世界格局,都深陷巨大的不確定性中。這種不確定性對戰(zhàn)略決策者和政策制定者構(gòu)成嚴(yán)峻挑戰(zhàn),他們既要預(yù)判通向AGI過程中可能出現(xiàn)的風(fēng)險(xiǎn)與機(jī)遇,又需規(guī)劃AGI實(shí)現(xiàn)后的應(yīng)對策略。

圖源:RAND

本報(bào)告提煉出AGI對美國國家安全的五大戰(zhàn)略性挑戰(zhàn):

(1)顛覆性武器系統(tǒng)的涌現(xiàn);

(2)權(quán)力格局的系統(tǒng)性重構(gòu);

(3)非專業(yè)主體掌握大規(guī)模殺傷性技術(shù);

(4)具備能動(dòng)性的人工實(shí)體;

(5)全球穩(wěn)定體系的失衡。

當(dāng)前政策界對AGI的討論常陷入觀點(diǎn)割裂狀態(tài),各方對優(yōu)先關(guān)注領(lǐng)域和資源分配方向存在顯著分歧。值得注意的是,某些應(yīng)對特定挑戰(zhàn)的方案可能與其他領(lǐng)域的風(fēng)險(xiǎn)防控形成沖突,甚至產(chǎn)生系統(tǒng)性疏漏。本文提出的五大挑戰(zhàn)框架旨在實(shí)現(xiàn)雙重目標(biāo):建立統(tǒng)一的風(fēng)險(xiǎn)評估話語體系,構(gòu)建戰(zhàn)略選擇的評估基準(zhǔn),從而為政策辯論提供結(jié)構(gòu)化分析工具。

背景

紅線

1938年,德國物理學(xué)家分裂了原子,全世界的物理學(xué)家都為之驚嘆。這一科學(xué)突破為創(chuàng)造歷史上最具破壞性的軍事能力提供了一條清晰的技術(shù)途徑。正如阿爾伯特·愛因斯坦在給美國總統(tǒng)富蘭克林·羅斯福的一封信中解釋的那樣,在大量鈾中,一個(gè)原子的核裂變可以引起核連鎖反應(yīng),從而產(chǎn)生“威力極大的炸彈”,這使得美國開始了原子彈競賽。

最近在前沿生成式人工智能模型方面取得的突破使許多人斷言,人工智能將對國家安全產(chǎn)生同樣的影響,也就是說,它將如此強(qiáng)大,以至于第一個(gè)實(shí)現(xiàn)它的實(shí)體將擁有重大的、也許是不可逆轉(zhuǎn)的軍事優(yōu)勢。與愛因斯坦的信類似,在現(xiàn)代社會,人們開始呼吁美國政府在全國范圍內(nèi)做出巨大努力,確保美國在特定國家之前獲得具有決定性意義的人工智能奇跡武器(wonder weapon)。

問題在于,前沿的生成式人工智能模型還沒有到原子分裂的那一刻,還沒有顯示出從科學(xué)進(jìn)步到奇跡武器的清晰技術(shù)路徑。當(dāng)曼哈頓計(jì)劃啟動(dòng)時(shí),美國政府清楚地知道它正在建造的能力能做什么。下一代人工智能模型的能力尚不明確。

目前,推動(dòng)政府在全國范圍內(nèi)開展大規(guī)模項(xiàng)目以研發(fā)奇跡武器的動(dòng)力還不存在。但這并不意味著美國政府應(yīng)該袖手旁觀。美國的國家安全戰(zhàn)略應(yīng)認(rèn)真對待世界領(lǐng)先的人工智能實(shí)驗(yàn)室正處于開發(fā)AGI的風(fēng)口浪尖這一不確定但技術(shù)上可信的可能性,以及它們將繼續(xù)取得進(jìn)展直至跨越這一未知和潛在門檻的相對確定性。

AGI將在各種認(rèn)知任務(wù)中產(chǎn)生人類水平甚至超人水平的智能,這是可信的;我們有理由認(rèn)為它可以實(shí)現(xiàn)。因此,它為美國的國家安全戰(zhàn)略帶來了獨(dú)特的機(jī)遇和潛在的威脅。報(bào)告將這些問題提煉為五個(gè)難題。AGI可能導(dǎo)致這五個(gè)問題的任何組合:

1.通過突然出現(xiàn)具有決定性意義的奇跡武器,實(shí)現(xiàn)重大的先發(fā)優(yōu)勢

2.引起系統(tǒng)性變化,改變?nèi)蛄α科胶?/strong>

3.賦予非專業(yè)人員開發(fā)大規(guī)模毀滅性武器的能力

4.導(dǎo)致出現(xiàn)擁有能動(dòng)性的人造實(shí)體,威脅全球安全

5.增加戰(zhàn)略不穩(wěn)定性

固有的不確定性??

紅線

美國和全球領(lǐng)先的人工智能實(shí)驗(yàn)室都在緊追AGI。人工智能實(shí)驗(yàn)室主要依靠經(jīng)驗(yàn)性的“縮放定律”,即模型性能與計(jì)算量成正比,不斷加大對訓(xùn)練模型所需的計(jì)算量的投入。新一代人工智能前沿模型(包括ChatGPT-4、Gemini和Claude3.5)中每個(gè)模型的訓(xùn)練運(yùn)行都依賴于數(shù)億美元的計(jì)算。算法的改進(jìn)(如OpenAI的o1推理功能)和相關(guān)技術(shù)領(lǐng)域的進(jìn)步(如符號推理)為實(shí)現(xiàn)AGI的突破提供了互補(bǔ)途徑。盡管尚未取得實(shí)質(zhì)性的商業(yè)成功,但領(lǐng)先的人工智能實(shí)驗(yàn)室正在建立自己的戰(zhàn)備庫,并積極追求到2027年耗資10億美元或更多的模型。

目前還不清楚性能是否會隨著計(jì)算量的增加而不斷提高。如果會,那么尚不清楚AGI的門檻是什么,是否能通過這種方法實(shí)現(xiàn)技術(shù)突破。AGI出現(xiàn)的速度和潛在進(jìn)展,以及后AGI時(shí)代的未來構(gòu)成,都籠罩在一片不確定性之中。專家們激烈地爭論著:

這項(xiàng)技術(shù)是即將問世還是還需要幾十年的時(shí)間?

向AGI狀態(tài)的過渡是一個(gè)離散的事件還是一個(gè)漸進(jìn)的過程?

AGI會帶來一個(gè)人人富足的未來,還是一個(gè)權(quán)力掌握在少數(shù)人手中、以稀缺為特征的未來?

更不確定的是,開發(fā)前沿人工智能模型的技術(shù)人員可能直到真正跨越了AGI能力的臨界點(diǎn),才知道臨界點(diǎn)在哪里。其中一些不確定性可以通過進(jìn)一步的研究和經(jīng)驗(yàn)來解決,但有些不確定性可能實(shí)際上無法及時(shí)解決,從而無法為戰(zhàn)略和政策的制定提供依據(jù)。

一方面,人工智能末日論者大多相信,AGI的出現(xiàn)會給人類帶來滅頂之災(zāi),因此一些人呼吁在AGI毀滅人類之前停止一切進(jìn)展,另一些人則呼吁美國在特定國家能夠摧毀全球秩序之前加快發(fā)展。另一方面,懷疑論者比比皆是,他們斷言,在當(dāng)前的技術(shù)范式下,AGI根本不可行,因?yàn)榍把氐娜斯ぶ悄苣P筒⒉涣私馕锢硎澜纭?/p>

在技術(shù)層面上,100億美元的訓(xùn)練運(yùn)行所產(chǎn)生的模型,其性能與現(xiàn)有的前沿人工智能模型相比沒有邊際增長?;蛘撸P涂梢詫?shí)現(xiàn)遞歸自我改進(jìn)能力,在不增加人類投入的情況下增強(qiáng)自身能力,從而實(shí)現(xiàn)某種超人智能的爆炸。

在通往AGI的道路上以及在后AGI世界中存在的不確定性,可能導(dǎo)致未來十年出現(xiàn)多個(gè)戰(zhàn)略機(jī)會窗口,使政策制定者面臨不止一個(gè)可能的拐點(diǎn)。考慮到這一系列似是而非的結(jié)果,任何針對單一模式過度優(yōu)化的安全戰(zhàn)略都是高風(fēng)險(xiǎn)的。核心問題不是預(yù)測未來將如何發(fā)展,而是確定美國政府在技術(shù)和地緣政治不確定的情況下應(yīng)采取哪些措施。

五個(gè)問題??

紅線

蘭德公司領(lǐng)導(dǎo)了一項(xiàng)倡議,旨在為美國解決AGI潛在出現(xiàn)對國家安全的影響奠定知識基礎(chǔ)。該倡議在政策制定者、私營部門和研究機(jī)構(gòu)之間形成了一個(gè)充滿活力的知識社區(qū),同時(shí)在蘭德公司內(nèi)部也擁有一些自足的能量。美國國家安全的五大難題清單就是該倡議的產(chǎn)物,其中包括各種探索性研究、游戲、研討會和會議。在有關(guān)AGI的許多討論中,政策制定者和分析師們對其中哪些問題值得現(xiàn)在就投入資源和關(guān)注,以及需要付出怎樣的機(jī)會成本意見不一,爭論不休。這些問題在領(lǐng)域上存在重疊,可能并不代表決策者在AGI出現(xiàn)的時(shí)代可能需要考慮的全部問題。

然而,我們已經(jīng)注意到,推動(dòng)一個(gè)問題取得進(jìn)展的建議可能會破壞另一個(gè)問題的進(jìn)展,甚至完全忽略另一個(gè)問題。因此,它們可以作為評估替代戰(zhàn)略的標(biāo)準(zhǔn)。提出這五個(gè)棘手的國家安全問題是為了推動(dòng)有關(guān)人工智能戰(zhàn)略的討論,提供一種共同語言來交流人工智能在國家安全中的風(fēng)險(xiǎn)和機(jī)遇。

(一)AGI可能會通過突然出現(xiàn)決定性的奇跡武器而帶來顯著的先發(fā)優(yōu)勢

設(shè)想在未來,AGI推動(dòng)了一種技術(shù)突破,為開發(fā)一種奇跡武器或系統(tǒng)開辟了一條清晰的道路,這種武器或系統(tǒng)可通過以下方式帶來巨大的軍事優(yōu)勢。

1.識別和利用對手網(wǎng)絡(luò)防御中的漏洞,創(chuàng)造出可能被稱為精彩的首次網(wǎng)絡(luò)攻擊,使報(bào)復(fù)性網(wǎng)絡(luò)攻擊完全失效。

2.模擬復(fù)雜場景,高精度預(yù)測結(jié)果,大幅改進(jìn)軍事行動(dòng)的規(guī)劃和執(zhí)行。

3.開發(fā)高度先進(jìn)的自主武器系統(tǒng),提供軍事主導(dǎo)權(quán)。

人工智能還可能削弱軍事優(yōu)勢,例如制造一種戰(zhàn)爭迷霧機(jī)器,提供不可信的戰(zhàn)場信息。這種先發(fā)優(yōu)勢可能會破壞關(guān)鍵戰(zhàn)區(qū)的軍事力量平衡,帶來一系列擴(kuò)散風(fēng)險(xiǎn),并加速技術(shù)競賽態(tài)勢。

一個(gè)國家從AGI中獲得顯著的先發(fā)優(yōu)勢反映了最雄心勃勃的假設(shè):AGI的突然出現(xiàn)帶來認(rèn)知性能的大幅提升、對國家安全的極端影響以及快速的機(jī)構(gòu)采用。然而,這些假設(shè)都是對未知概率的高后果事件的假設(shè)。因此,審慎的規(guī)劃要求美國不要假定奇跡武器即將出現(xiàn),而是要考慮這種破壞性武器可能出現(xiàn)的條件,并要求美國做好定位,以便在這種情況出現(xiàn)時(shí)搶占先機(jī)。

(二)AGI可能會導(dǎo)致國家權(quán)力工具或國家競爭力的社會基礎(chǔ)發(fā)生系統(tǒng)性轉(zhuǎn)變,從而改變?nèi)蛄α康钠胶?/strong>

歷史表明,技術(shù)突破很少會產(chǎn)生對軍事平衡或國家安全產(chǎn)生直接決定性影響的奇跡武器。除了核武器等罕見的例子外,文化和程序因素是一個(gè)機(jī)構(gòu)采用技術(shù)能力的驅(qū)動(dòng)力,比率先實(shí)現(xiàn)科技突破更具影響力。隨著美國、盟國和競爭對手的軍隊(duì)開始接觸并采用AGI,它可能會提升影響軍事競爭關(guān)鍵組成部分的各種能力,從而打破軍事平衡,如隱藏與發(fā)現(xiàn)、精確與大規(guī)模、集中與分散的指揮和控制。

此外,AGI可能會破壞國家競爭力的社會基礎(chǔ),從而可能危及民主。例如,AGI可能會被用來通過先進(jìn)的宣傳技術(shù)操縱公眾輿論,從而威脅民主決策。此外,AGI系統(tǒng)的復(fù)雜性和不可預(yù)測性可能會超過監(jiān)管框架,從而難以有效管理其使用,破壞機(jī)構(gòu)的有效性。

AGI還可以通過創(chuàng)造新發(fā)現(xiàn)的源泉,大規(guī)模提升生產(chǎn)力或科學(xué)水平,從而導(dǎo)致經(jīng)濟(jì)的系統(tǒng)性轉(zhuǎn)變。例如,自動(dòng)化工人可以迅速取代各行各業(yè)的勞動(dòng)力,導(dǎo)致國民生產(chǎn)總值飆升,但工資卻因工作崗位減少而崩潰。如此規(guī)模和速度的勞動(dòng)破壞可能引發(fā)社會動(dòng)蕩,威脅到民族國家的生存。

此外,正如Anthropic公司首席執(zhí)行官達(dá)里奧·阿莫代(Dario Amodei)最近所言,強(qiáng)大的人工智能可以治愈癌癥和傳染病。那些能夠更好地利用和管理這種經(jīng)濟(jì)和科學(xué)變革的國家,在未來可能會大大擴(kuò)大影響力。無論AGI本身是否能創(chuàng)造出奇跡武器,AGI對其他國家權(quán)力工具的影響都會對全球權(quán)力態(tài)勢產(chǎn)生極大的破壞性影響,無論是好是壞。

(三)AGI可能賦予非專家開發(fā)大規(guī)模殺傷性武器的能力

基礎(chǔ)模型之所以被譽(yù)為提高勞動(dòng)生產(chǎn)率的福音,很大程度上是因?yàn)樗鼈兛梢约涌煨率值膶W(xué)習(xí)曲線,使非專家的表現(xiàn)更上一層樓。然而,這種加速的知識增長既適用于惡意任務(wù),也適用于有用任務(wù)?;A(chǔ)模型能夠清楚地闡明非專家開發(fā)危險(xiǎn)武器的一些具體步驟,如具有高度致命性和傳播性的病原體或毒性網(wǎng)絡(luò)惡意軟件,從而擴(kuò)大了有能力制造此類威脅的行為者范圍。

迄今為止,大多數(shù)基礎(chǔ)模型尚未證明有能力提供公共互聯(lián)網(wǎng)上尚未提供的信息,但基礎(chǔ)模型有能力充當(dāng)惡意導(dǎo)師,將復(fù)雜的方法提煉成非專家可以理解的指令,并協(xié)助用戶規(guī)避開發(fā)武器的禁令。這種威脅可能會在開發(fā)AGI之前就顯現(xiàn)出來;正如OpenAI自己對其o1模型的安全評估所顯示的那樣,風(fēng)險(xiǎn)正在增加。

當(dāng)然,知道如何制造大規(guī)模殺傷性武器并不等于真的能制造出來。將知識轉(zhuǎn)化為武器開發(fā)的離散形式,例如掌握技術(shù)先進(jìn)的制造流程,存在著實(shí)際挑戰(zhàn)。在某些情況下,例如核武器,這些可以大大降低武器研發(fā)成功的實(shí)際風(fēng)險(xiǎn),甚至可能降至零。但相關(guān)領(lǐng)域的技術(shù)發(fā)展正在降低這些執(zhí)行障礙。

例如,獲取、編輯和合成病毒基因組越來越容易,成本也越來越低。人工智能體與物理世界的互動(dòng)越來越多;它們可以將比特轉(zhuǎn)換為分子,并在云實(shí)驗(yàn)室中物理合成化學(xué)制劑。鑒于這些發(fā)展,大幅擴(kuò)大擁有知識并嘗試開發(fā)此類武器的行為者范圍是一個(gè)值得防范的明顯挑戰(zhàn)。

(四)AGI可能會表現(xiàn)為具有威脅全球安全的能動(dòng)性的人工實(shí)體

AGI發(fā)展最有害的影響之一可能是,隨著人類對技術(shù)的依賴性越來越強(qiáng),人類的能動(dòng)性也會受到侵蝕。隨著AGI控制越來越復(fù)雜和關(guān)鍵的系統(tǒng),它們可能會以對人類有益的方式優(yōu)化關(guān)鍵基礎(chǔ)設(shè)施,但也可能以人類無法完全理解的方式優(yōu)化關(guān)鍵基礎(chǔ)設(shè)施。

目前,用于識別戰(zhàn)場上軍事目標(biāo)的狹義人工智能就存在這種問題,由于缺乏時(shí)間或能力確認(rèn),人類操作員可能需要相信這些目標(biāo)是準(zhǔn)確的。隨著人工智能變得越來越強(qiáng)大和無處不在,人類將越來越依賴人工智能為決策提供信息,從而模糊了人類與機(jī)器決策之間的界限,并可能削弱人類的能動(dòng)性。

單一的AGI或人工智能體群也可能成為世界舞臺上的演員。考慮一下具有高級計(jì)算機(jī)編程能力的AGI,由于設(shè)計(jì)了互聯(lián)網(wǎng)連接或使用了側(cè)信道攻擊,它能夠打破常規(guī),在網(wǎng)絡(luò)空間與世界互動(dòng)。它可以擁有超越人類控制的能力,自主運(yùn)行,并做出具有深遠(yuǎn)影響的決定。例如,AGI可充當(dāng)代理力量,類似伊朗的抵抗軸心,其非正式關(guān)系旨在保護(hù)行為者免于問責(zé)。即使在責(zé)任明確的情況下,AGI也可能出現(xiàn)偏差,即運(yùn)行方式與其人類設(shè)計(jì)者或操作者的意圖不符,造成無意傷害。它可能會過度優(yōu)化狹義的目標(biāo),例如,實(shí)施滾動(dòng)停電以提高能源分配網(wǎng)絡(luò)的成本效益。OpenAI在其最新的人工智能o1中提高了對錯(cuò)位風(fēng)險(xiǎn)的評分,因?yàn)樗坝袝r(shí)會在測試過程中用儀器偽造對齊”,故意提供錯(cuò)誤信息欺騙用戶。

在極端情況下,可能會出現(xiàn)失控的情況,即AGI為實(shí)現(xiàn)其預(yù)期目標(biāo)而激勵(lì)機(jī)器抵制關(guān)閉,從而與人類的努力背道而馳。著名人工智能專家約書亞·本吉奧(Yoshua Bengio)指出:

“這聽起來像是科幻小說,但卻是合理而真實(shí)的計(jì)算機(jī)科學(xué)?!?/blockquote>

出足夠的能動(dòng)性,從而在全球舞臺上被視為實(shí)際上的獨(dú)立角色。

(五)在通往AGI的道路上以及在擁有AGI的世界中,可能存在不穩(wěn)定性

無論AGI最終能否實(shí)現(xiàn),隨著各國和各公司競相爭奪這一變革性技術(shù)的主導(dǎo)權(quán),對AGI的追求可能會帶來一段不穩(wěn)定時(shí)期。這種競爭可能會導(dǎo)致緊張局勢加劇,讓人聯(lián)想起核軍備競賽,從而使對優(yōu)勢的追求有可能引發(fā)沖突,而不是阻止沖突。

在這種岌岌可危的環(huán)境中,各國對AGI的可行性和帶來先發(fā)優(yōu)勢的潛力的看法可能變得與技術(shù)本身一樣重要。行動(dòng)的風(fēng)險(xiǎn)閾值不僅取決于實(shí)際能力,還取決于對手的認(rèn)知能力和意圖。誤讀或誤判就像冷戰(zhàn)時(shí)期人們擔(dān)心的那樣,可能會引發(fā)先發(fā)制人的戰(zhàn)略或軍備集結(jié),從而破壞全球安全。下圖總結(jié)了這些問題以及普遍存在的不確定性問題。

打開網(wǎng)易新聞 查看精彩圖片

通用人工智能的五大國家安全難題。

制定強(qiáng)有力的戰(zhàn)略??

紅線

美國的人工智能戰(zhàn)略目的是在人工智能技術(shù)堆棧的核心組件方面保持對特定國家的技術(shù)領(lǐng)先地位。這一提升美國技術(shù)競爭力的戰(zhàn)略在很大程度上為美國應(yīng)對可能出現(xiàn)的人工智能做好了準(zhǔn)備。然而,如果半導(dǎo)體出口管制沒有得到有效執(zhí)行,特定國家的半導(dǎo)體產(chǎn)業(yè)能夠在適當(dāng)?shù)臅r(shí)候迎頭趕上,或者可以通過計(jì)算密集度較低的技術(shù)實(shí)現(xiàn)AGI,那么將計(jì)算作為確保國家競爭優(yōu)勢的重要指標(biāo)可能是一種脆弱的戰(zhàn)略。

美國的政策還鼓勵(lì)安全開發(fā)前沿的人工智能模型,以避免人工智能誤用、錯(cuò)位或失控造成災(zāi)難性后果。美國新成立的人工智能安全研究所已經(jīng)開始運(yùn)行,重點(diǎn)關(guān)注人工智能安全,評估非國家行為者試圖利用前沿人工智能模型開發(fā)生物武器或新型網(wǎng)絡(luò)惡意軟件的風(fēng)險(xiǎn)。

美國當(dāng)前的戰(zhàn)略還包括一系列無悔方案,以應(yīng)對AGI的潛在出現(xiàn),這些方案在任何替代性未來下都是明智的。這些方案包括投資于科學(xué)、技術(shù)、工程和數(shù)學(xué)教育以及勞動(dòng)力發(fā)展;提高對技術(shù)及其應(yīng)用現(xiàn)狀的態(tài)勢感知;保護(hù)容易被競爭對手竊取或破壞的前沿人工智能模型權(quán)重;以及進(jìn)一步促進(jìn)人工智能安全和調(diào)整研究。

最后,美國政府正在推動(dòng)建立一個(gè)由美國主導(dǎo)的全球技術(shù)生態(tài)系統(tǒng),在這個(gè)生態(tài)系統(tǒng)中可以開展AGI研究。

這些建設(shè)性步驟有助于保持美國的技術(shù)優(yōu)勢,而無需考慮具體的最終狀態(tài)。與此同時(shí),這些措施不足以應(yīng)對顛覆性技術(shù)突破的前景,如AGI的潛在出現(xiàn)及其帶來的獨(dú)特問題。

要想維持現(xiàn)狀,就必須相信,當(dāng)AGI發(fā)展中的不確定性揭示出機(jī)遇和挑戰(zhàn)時(shí),美國能夠有效應(yīng)對。然而,美國政府在避免美國或外國公司追求AGI所帶來的技術(shù)意外方面準(zhǔn)備不足,更不用說管理AGI破壞全球權(quán)力動(dòng)態(tài)和全球安全的潛力了。

美國也沒有做好充分準(zhǔn)備,在不出現(xiàn)大范圍失業(yè)和隨之而來的社會動(dòng)蕩的情況下,實(shí)現(xiàn)AGI所帶來的宏大經(jīng)濟(jì)效益。如果在未來幾年內(nèi),一家領(lǐng)先的人工智能實(shí)驗(yàn)室宣布,其即將推出的模型有能力一鍵生產(chǎn)出相當(dāng)于100萬名計(jì)算機(jī)程序員的計(jì)算機(jī)程序,其能力不亞于最頂尖的百分之一人類程序員,那么美國政府會怎么做呢?攻防型網(wǎng)絡(luò)動(dòng)力學(xué)對國家安全的影響是深遠(yuǎn)的。同樣深遠(yuǎn)的還有將這種能力引入勞動(dòng)力市場所帶來的經(jīng)濟(jì)影響。

任何在不確定的未來制定路線的明智戰(zhàn)略,都應(yīng)隨著事態(tài)的發(fā)展和不確定因素的減少而進(jìn)行調(diào)整。為了使政府能夠迅速做出調(diào)整,應(yīng)在需要時(shí)提前制定高風(fēng)險(xiǎn)政策選擇的戰(zhàn)略規(guī)劃,并考慮到執(zhí)行機(jī)制。備選方案可包括確?;蚣涌烀绹谧非驛GI方面的技術(shù)領(lǐng)先地位的方法,以及應(yīng)對AGI帶來的安全挑戰(zhàn)的應(yīng)急計(jì)劃。美國政府還應(yīng)考慮AGI后的未來,并參與情景演練,以預(yù)測對國家安全的影響。這包括:

(1)分析軍事力量態(tài)勢和經(jīng)濟(jì)破壞的潛在變化;

(2)制定政策以減輕這兩方面的影響。

隨著人工智能能力從科幻領(lǐng)域過渡到科學(xué)事實(shí),美國政府不應(yīng)在發(fā)現(xiàn)和應(yīng)對機(jī)遇與挑戰(zhàn)方面姍姍來遲。積極的規(guī)劃將使美國政府在條件允許的情況下做出比2025年初更果斷的反應(yīng)。

在思考AGI對全球安全的影響時(shí),人類正處于一個(gè)潛在變革時(shí)代的前沿,類似于工業(yè)革命的黎明。AGI的出現(xiàn)不僅預(yù)示著一場技術(shù)革命,也預(yù)示著地緣政治格局的深刻變化,需要重新調(diào)整國家安全模式。當(dāng)我們在這片不確定的領(lǐng)域上航行時(shí),美國應(yīng)采取一種既有預(yù)見性又有適應(yīng)性的戰(zhàn)略,認(rèn)識到AGI的雙重性,它既是一種希望,也是一種危險(xiǎn)。

*文章來源于公眾號“啟元洞見”

編輯/寂谷

審校/流景

IPP公共關(guān)系與傳播中心

排版 | 周浩鍇

審閱 | 劉 深?

終審|劉金程

劉少山:Manus和DeepSeek只是開端|IPP訪談

鄭永年×黃鎧×袁曉輝×劉磊×劉少山:人工智能社會的機(jī)遇與挑戰(zhàn)

從DeepSeek突圍,看AI領(lǐng)域趕超策略

關(guān)于IPP

華南理工大學(xué)公共政策研究院(IPP)是一個(gè)獨(dú)立、非營利性的知識創(chuàng)新與公共政策研究平臺。IPP圍繞中國的體制改革、社會政策、中國話語權(quán)與國際關(guān)系等開展一系列的研究工作,并在此基礎(chǔ)上形成知識創(chuàng)新和政策咨詢協(xié)調(diào)發(fā)展的良好格局。IPP的愿景是打造開放式的知識創(chuàng)新和政策研究平臺,成為領(lǐng)先世界的中國智庫。