Is artificial consciousness achievable? Lessons from the human brain

《人工智能意識(shí)是否可實(shí)現(xiàn)?來自人腦的啟示》

https://www.sciencedirect.com/science/article/pii/S0893608024006385

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

摘要

我們?cè)诖藦倪M(jìn)化的角度分析開發(fā)人工意識(shí)的問題,以人類大腦的進(jìn)化及其與意識(shí)的關(guān)系作為參考模型或基準(zhǔn)。這種分析揭示了人類大腦的若干結(jié)構(gòu)和功能特征,這些特征似乎是實(shí)現(xiàn)類人復(fù)雜意識(shí)體驗(yàn)的關(guān)鍵,當(dāng)前的人工智能(AI)研究在試圖開發(fā)具備類人意識(shí)處理能力的系統(tǒng)時(shí)應(yīng)予以考慮。我們認(rèn)為,即使人工智能在模擬人類意識(shí)方面受到限制,無論是由于內(nèi)在原因(即結(jié)構(gòu)和架構(gòu)上的限制)還是外在原因(即當(dāng)前科學(xué)技術(shù)知識(shí)的局限性),借鑒那些使類人意識(shí)處理成為可能或?qū)ζ洚a(chǎn)生調(diào)節(jié)作用的大腦特性,仍是一種具有潛在前景的策略,可推動(dòng)意識(shí)AI的發(fā)展。

此外,從理論上不能排除人工智能研究可能開發(fā)出部分或替代形式的意識(shí),這些意識(shí)在質(zhì)量上與人類的意識(shí)形式不同,并且可能根據(jù)不同的視角而表現(xiàn)出更高的復(fù)雜性或更低的復(fù)雜性。因此,我們建議在討論人工意識(shí)時(shí)采取受神經(jīng)科學(xué)啟發(fā)的謹(jǐn)慎態(tài)度:由于將“意識(shí)”一詞同時(shí)用于人類和AI可能會(huì)引起歧義并導(dǎo)致潛在誤導(dǎo),我們建議明確說明人工智能研究旨在開發(fā)何種層次或類型的意識(shí),以及人工智能的意識(shí)處理與人類意識(shí)體驗(yàn)之間有哪些共同點(diǎn)和差異。

關(guān)鍵詞: 大腦 意識(shí) 人工智能 神經(jīng)形態(tài)計(jì)算 機(jī)器人技術(shù) 認(rèn)知 神經(jīng)科學(xué)

1. 引言

自亥姆霍茲(Helmholtz)、杜布瓦-雷蒙(DuBois-Reymond),甚至弗洛伊德(Freud)在1842年莊嚴(yán)宣誓“生物體內(nèi)除了普遍的物理化學(xué)力量之外,沒有其他力量在起作用”以來,科學(xué)界廣泛認(rèn)同大腦是一個(gè)“物理化學(xué)系統(tǒng)”,而“意識(shí)”是其最復(fù)雜精妙的特征之一。盡管對(duì)這一現(xiàn)象的具體解釋尚無共識(shí),但可以推測(cè),從理論上講,遲早可以通過物理化學(xué)方法人工模擬大腦的功能,包括意識(shí)。然而,這種情況類似于“試管中的生命”問題——即使對(duì)于最簡(jiǎn)單的生物體,盡管其所有分子成分都已知,但至今無人能夠從其分離的組分重新構(gòu)建出一個(gè)活的有機(jī)體。這一問題不僅是理論上的,更重要的是實(shí)踐上的難題。

開發(fā)人工意識(shí)形式的可能性正逐漸成為神經(jīng)科學(xué)、機(jī)器人技術(shù)、人工智能(AI)、神經(jīng)形態(tài)計(jì)算、哲學(xué)及其交叉領(lǐng)域研究者和普通公眾心中的現(xiàn)實(shí)可能性(Blum & Blum, 2023, 2024; Butlin et al., 2023; LeDoux et al., 2023; Oliveira, 2022; VanRullen & Kanai, 2021)。人工意識(shí)處理的挑戰(zhàn)也引發(fā)了社會(huì)和倫理方面的擔(dān)憂(Farisco, 2024; Farisco et al., 2023; Hildt, 2023; Metzinger, 2021)。因此,從多學(xué)科角度批判性評(píng)估開發(fā)人工意識(shí)處理的可行性,并分析這一概念可能的含義,顯得尤為及時(shí)。最近已有相關(guān)的嘗試提出(Aru et al., 2023; Godfrey-Smith, 2023; Seth, 2024)。

當(dāng)前關(guān)于人工意識(shí)處理在理論上是否可設(shè)想以及技術(shù)上是否可行的討論,首先受到“意識(shí)”一詞語義模糊性和多義性的影響。這包括現(xiàn)象學(xué)(即主觀的第一人稱體驗(yàn))與潛在生理學(xué)(即第三人稱對(duì)意識(shí)的訪問)之間的區(qū)別(Evers & Sigman, 2013; Farisco et al., 2015; Levine, 1983),以及有意識(shí)表征與無意識(shí)表征之間的基本區(qū)分(Piccinini, 2022)。此外,意識(shí)處理的意義可能因分析背景的不同而有所變化,并具有不同的維度,這些維度可能表現(xiàn)出不同的層次,從而形成不同類型或模式的意識(shí)處理(Bayne et al., 2016; Dung & Newen, 2023; Irwin, 2024; Walter, 2021)。從詞源上看,“意識(shí)”源自拉丁文“conscientia”,意為“共同的知識(shí)”(cum scire),在自信與共謀之間搖擺,直到經(jīng)典定義“人類捕捉自身現(xiàn)實(shí)的能力”(Malebranche, 1676),或神經(jīng)精神病學(xué)家亨利·艾(Henri Ey)所描述的“主體對(duì)客體的認(rèn)識(shí)以及客體對(duì)主體的反向參照”。因此,個(gè)體既是其認(rèn)知的主體,也是其作者。拉馬克(Lamarck)在1809年提到一種某些動(dòng)物甚至人類特有的能力,他稱之為“sentiment interieur”(內(nèi)在感受)。更近一些,內(nèi)德·布洛克(Ned Block)提出了“通達(dá)意識(shí)”與“現(xiàn)象意識(shí)”的區(qū)分:通達(dá)意識(shí)指不同心理狀態(tài)之間的互動(dòng),尤其是某種狀態(tài)的內(nèi)容可用于推理并合理指導(dǎo)言語和行動(dòng)等能力;現(xiàn)象意識(shí)則是特定體驗(yàn)的主觀感受,即“處于某種狀態(tài)是什么樣的感覺”(Block, 1995)。因此,認(rèn)知與主觀體驗(yàn)是有意識(shí)處理的兩個(gè)核心組成部分,其基本定義可以概括為“對(duì)身體、自我和世界的感官覺察”(Lagercrantz & Changeux, 2009),包括“內(nèi)在的、定性的、主觀的感受或覺察狀態(tài)與過程”(Searle, 2000)。在個(gè)體層面上,有意識(shí)處理的具身化成分還包括表達(dá)情感、記憶、符號(hào)、語言、自傳式報(bào)告和心理時(shí)間旅行的能力,以及內(nèi)省并報(bào)告自身心理狀態(tài)的能力;在社會(huì)層面上,則包括持續(xù)的個(gè)體間互動(dòng),這種互動(dòng)使人們能夠獲得各種社會(huì)關(guān)系,如同情和共鳴(Lagercrantz & Changeux, 2009)。

在目前提出的眾多理論和計(jì)算機(jī)科學(xué)模型中,據(jù)我們?cè)u(píng)估,沒有一個(gè)模型能夠涵蓋人類高級(jí)腦功能的整體物種特異性方面(van Rooij et al., 2023)。于是問題出現(xiàn)了:這些模型是否能在進(jìn)一步發(fā)展后達(dá)到這些方面,還是差距不可彌補(bǔ)?與此同時(shí),越來越多的公民面對(duì)著人工智能對(duì)人類行為(包括有意識(shí)處理)的模擬,并對(duì)此感到擔(dān)憂(Lenharo, 2024):人工意識(shí)系統(tǒng)的前景可能會(huì)對(duì)人類的自我理解產(chǎn)生影響,例如,如果人工智能取代了需要意識(shí)能力的任務(wù),人類將如何應(yīng)對(duì)?因此,有必要用實(shí)際的人類大腦組織、認(rèn)知和行為表現(xiàn)來檢驗(yàn)人工智能模型。問題是:是否存在任何理論上的計(jì)算機(jī)科學(xué)表征能夠?qū)е骂愃迫祟惖娜斯ひ庾R(shí)系統(tǒng)?機(jī)器能否發(fā)展出類似人類的意識(shí),或者是一種不同的意識(shí)形式,抑或根本無法發(fā)展出意識(shí)?人工意識(shí)的概念是否有意義,如果有,又是怎樣的意義?借用伏爾泰的話:機(jī)器能覺醒嗎?

在過去幾十年中,許多模型主要由神經(jīng)科學(xué)家提出,目標(biāo)更為謙遜:從已知的解剖學(xué)和生理學(xué)模塊出發(fā),重建神經(jīng)系統(tǒng)的基本功能(如水蛭的游泳行為(Stent et al., 1978)或七鰓鰻的行為(Grillner et al., 1995))。其中一些模型甚至被設(shè)計(jì)用于模擬更復(fù)雜的認(rèn)知任務(wù),例如威斯康星卡片分類任務(wù)(Dehaene & Changeux, 2011)以及痕跡條件反射與延遲條件反射(Grover et al., 2022)。有必要進(jìn)一步發(fā)展人工智能、哲學(xué)和神經(jīng)科學(xué)之間的接口,這一領(lǐng)域的合作迄今為止已經(jīng)帶來了相互的認(rèn)識(shí)論和方法論豐富(Alexandre et al., 2020; Farisco et al., 2023; Floreano et al., 2014; Floreano & Mattiussi, 2008; Hassabis et al., 2017; Momennejad, 2023; Poo, 2018; Zador et al., 2023)。事實(shí)上,盡管這些合作意義重大,但仍不足以解決人工意識(shí)的問題。關(guān)鍵且仍然懸而未決的問題是:需要考察和解釋哪些人工智能與大腦之間的具體相似點(diǎn)和差異點(diǎn),才能更適當(dāng)?shù)亟咏斯ひ庾R(shí)處理?換句話說,基于我們對(duì)人類大腦中意識(shí)處理的了解,哪種“描述層次”適合于建模甚至生成人工意識(shí)處理?

此外,在神經(jīng)科學(xué)領(lǐng)域,“意識(shí)”一詞仍然定義不清,正如我們將看到的那樣,人類的意識(shí)處理并非一個(gè)全或無的不可化約特性,而是逐步發(fā)展的(Changeux, 2006, 2017; Lagercrantz & Changeux, 2009; Tomasello, 2022; Verschure, 2016)。鑒于這些可能的發(fā)展階段,人工智能試圖開發(fā)人工意識(shí)處理時(shí),應(yīng)明確選擇其中哪一個(gè)階段(如果有的話)。

在這篇文章中,我們希望在現(xiàn)有生物學(xué)大腦知識(shí)的背景下重新評(píng)估人工意識(shí)的問題,采取一種務(wù)實(shí)的方法,探討開發(fā)人工意識(shí)的可設(shè)想性和可行性,并以人類大腦作為參考模型或基準(zhǔn)。我們的目標(biāo)是補(bǔ)充近期在此方向上的嘗試(Aru et al., 2023; Godfrey-Smith, 2023),通過對(duì)人類大腦在進(jìn)化過程中多層次生物復(fù)雜性的綜合分析,不僅為了推進(jìn)對(duì)意識(shí)處理本身的理解,還為了最終啟發(fā)旨在開發(fā)人工意識(shí)處理的正在進(jìn)行的人工智能研究。因此,我們的目標(biāo)既具有理論性和哲學(xué)性,也高度實(shí)用,作為一個(gè)工程問題:我們回顧了一些科學(xué)證據(jù),這些證據(jù)涉及大腦中對(duì)人類意識(shí)的關(guān)鍵促成或調(diào)節(jié)(或兩者兼有)的特征,并主張從這些特征中汲取靈感,以推動(dòng)開發(fā)有意識(shí)的人工智能系統(tǒng)。

我們并不聲稱開發(fā)人工意識(shí)必須整合人類大腦中有意識(shí)處理的機(jī)制。事實(shí)上,我們承認(rèn),理論上不能排除與大腦機(jī)制不同的人工意識(shí)特征的存在。我們建議的是,將目前已識(shí)別的大腦中有意識(shí)處理的機(jī)制作為基準(zhǔn),以便從實(shí)用的角度推進(jìn)能夠模擬人類意識(shí)處理可及特征的人工模型的構(gòu)建。鑒于圍繞構(gòu)建與大腦機(jī)制無關(guān)的人工意識(shí)的可能性存在高度爭(zhēng)議,以及由此可能導(dǎo)致過于抽象的觀點(diǎn)而缺乏實(shí)證數(shù)據(jù)支持的風(fēng)險(xiǎn),我們認(rèn)為從意識(shí)的生物學(xué)出發(fā)是一種更具生產(chǎn)力的策略。

然而,我們可以提出的一個(gè)問題是:首先追求人工意識(shí)對(duì)科學(xué)或整個(gè)社會(huì)有什么好處?對(duì)此有多種可能的答案。在認(rèn)識(shí)論層面上,與中世紀(jì)經(jīng)院哲學(xué)的觀點(diǎn)一致(例如保羅·瓦萊里(Paul Valéry)重申的觀點(diǎn):“我們只能理解我們能夠構(gòu)建的東西”),很明顯,構(gòu)建某些具體意識(shí)處理特征的人工模型,最終或許可以讓我們更好地理解生物意識(shí),無論是從相似性還是差異性的角度來看。在技術(shù)層面上,人工意識(shí)的發(fā)展可能會(huì)成為人工智能領(lǐng)域的游戲規(guī)則改變者,例如賦予人工智能意圖性和“心智理論”的能力,以及預(yù)測(cè)其自身“行為”后果的能力。在社會(huì)和倫理層面上,尤其是最后一點(diǎn),可以說有助于人工智能更好地向人類告知其對(duì)社會(huì)潛在的負(fù)面影響,并幫助避免這些影響,同時(shí)促進(jìn)積極影響。當(dāng)然,從消極的一面來看,機(jī)器中的意圖性未必比人類的意圖性更有利于人類利益,因?yàn)槿祟惖囊鈭D性也未曾特別有利于外群體個(gè)體、其他物種,甚至整個(gè)地球的利益。這確實(shí)是一個(gè)值得深入分析的討論,但超出了本文的目標(biāo)范圍。

接下來,我們將總結(jié)與本討論特別相關(guān)的人類大腦的進(jìn)化、結(jié)構(gòu)和功能特性(有關(guān)近期概述,參見(Barron et al., 2023))。在此基礎(chǔ)上,我們將闡述大腦可能為當(dāng)前人工智能研究帶來的啟發(fā),以推動(dòng)人工意識(shí)系統(tǒng)的發(fā)展。

最后,關(guān)于開發(fā)人工意識(shí)的可設(shè)想性和可行性,我們將區(qū)分以下幾點(diǎn):

(a) 人類意識(shí)的可復(fù)制性(我們認(rèn)為這是不可能的,至少在當(dāng)前人工智能發(fā)展的狀態(tài)下如此,這一立場(chǎng)幾乎沒有爭(zhēng)議);

(b) 開發(fā)一種具有某些相似性但仍與人類意識(shí)截然不同的人工意識(shí)處理的可能性(我們?cè)瓌t上不排除這種可能性,但由于概念和實(shí)證原因,認(rèn)為其實(shí)現(xiàn)難度較大)。

最終,本文從選擇性地審視腦科學(xué)數(shù)據(jù)出發(fā),旨在提出一種不同于當(dāng)今主流方法的人工智能意識(shí)研究路徑。這種方法可以被歸類為基于理論的方法,因?yàn)樗⒎且蕾噷?shí)驗(yàn)數(shù)據(jù),而是基于先驗(yàn)科學(xué)理論的選定組成部分,然后將其應(yīng)用于人工智能系統(tǒng)(Butlin et al., 2023)。相反,我們的方法是從經(jīng)驗(yàn)上確立的、直接與人類意識(shí)相關(guān)的大腦機(jī)制和過程出發(fā),從中推導(dǎo)出硬件構(gòu)建模塊或算法,這些模塊或算法可能是相關(guān)甚至必要的(即使不一定是充分的),以推動(dòng)人工意識(shí)處理的發(fā)展。

2. 人工智能在理解大腦方面的啟發(fā)程度與方式

2.1 計(jì)算模型

前蘇格拉底時(shí)期的希臘哲學(xué)家已經(jīng)指出,任何對(duì)現(xiàn)實(shí)的描述都是由人類(我們的大腦)通過模型構(gòu)建的,而這些模型必然受到物理限制(Changeux & Connes, 1995)。這也是邏輯上的限制。正如康德所言,我們所有的經(jīng)驗(yàn)都不可避免地依賴于我們自身有限的視角,而這些視角是我們永遠(yuǎn)無法超越的。這意味著,從某種意義上說,我們是自己大腦的“囚徒”(Evers, 2009)。換句話說,由于我們的有限性以及大腦生成模型時(shí)受到的物理約束,我們?cè)谡J(rèn)識(shí)論上是受限的。因此,包括基于計(jì)算模型的人工智能在內(nèi)的任何數(shù)學(xué)建模,都無法提供對(duì)現(xiàn)實(shí)(無論是物理現(xiàn)實(shí)還是生物現(xiàn)實(shí))的“詳盡”描述。問題在于,假設(shè)像意識(shí)處理這樣的大腦功能/特性可以在不同的物理結(jié)構(gòu)(無論是生物的還是人工的,即功能主義)中以完全相同的方式實(shí)現(xiàn),這種模型在多大程度上能夠部分或完全描述或模擬大腦(例如,生成關(guān)于人類意識(shí)的可測(cè)試假設(shè),如全局神經(jīng)工作空間理論及其實(shí)驗(yàn)驗(yàn)證(Mashour et al., 2020b)),盡管目前所有生物學(xué)的大腦模型都只是對(duì)神經(jīng)科學(xué)數(shù)據(jù)及其實(shí)際生物復(fù)雜性的過度簡(jiǎn)化(Chirimuuta, 2024)。但這并不否認(rèn),即使在細(xì)節(jié)數(shù)量有限的情況下,大腦模型仍然可能是有用且適當(dāng)?shù)?,這取決于所建模的大腦的具體方面以及相關(guān)描述層次。理論上講,例如,并非所有低層次的細(xì)節(jié)都是必要的,以便重現(xiàn)、預(yù)測(cè)或模擬某些高層次屬性,因此系統(tǒng)的高層次描述可能提供更相關(guān)且更充分的信息(Hoel, 2017; Rosas et al., 2020)。然而,如果目標(biāo)是對(duì)整個(gè)大腦進(jìn)行全面描述甚至模擬,那么任何計(jì)算模型都將不足以實(shí)現(xiàn)這一目標(biāo)(Farisco et al., 2018)。

一些功能主義哲學(xué)家否認(rèn)低層次神經(jīng)組織對(duì)意識(shí)處理模擬的相關(guān)性(Butlin et al., 2023)。最近,彼得·戈弗雷-史密斯(Peter Godfrey-Smith)提出,兩個(gè)系統(tǒng)的功能相似性是一個(gè)程度問題(即,它取決于需要以粗粒度或細(xì)粒度方式理解系統(tǒng)的程度)(Godfrey-Smith, 2023)。關(guān)鍵點(diǎn)在于,復(fù)制像意識(shí)處理這樣的實(shí)體所需的相似性程度是什么?!岸嘀乜蓪?shí)現(xiàn)性”是指相同的認(rèn)知能力可以通過具有不同物理架構(gòu)的系統(tǒng)表現(xiàn)出來(Cao, 2022)。這一觀點(diǎn)受到了質(zhì)疑。例如,繼內(nèi)德·布洛克(Ned Block, 1997)之后,羅莎·曹(Rosa Cao)最近提出,嚴(yán)格的功能主義對(duì)底層物理結(jié)構(gòu)施加了相當(dāng)嚴(yán)格的限制,而不是最終允許多重可實(shí)現(xiàn)性。事實(shí)上,復(fù)雜的整合功能(如意識(shí))比可以分解為簡(jiǎn)單獨(dú)立功能的功能需要更多的約束條件,包括在細(xì)粒度層面上的約束(Cao, 2022)。

其他關(guān)于意識(shí)的理論對(duì)功能主義和多重可實(shí)現(xiàn)性持某種模糊的批判立場(chǎng)。例如,整合信息理論(IIT)(Albantakis et al., 2023)就是一個(gè)例子。IIT將意識(shí)處理與“整合信息”聯(lián)系起來(即,一個(gè)元素復(fù)合體生成的信息量,超出其各部分生成的信息之和)。內(nèi)在信息被定義為在一個(gè)系統(tǒng)內(nèi)部產(chǎn)生差異的因素。意識(shí)處理最終等同于內(nèi)在信息:一個(gè)系統(tǒng)如果有超出其組成部分的信息生成能力,并且獨(dú)立于外部觀察者或解釋者,則該系統(tǒng)是有意識(shí)的。這就是為什么根據(jù)IIT,“大腦的數(shù)字模擬不可能是有意識(shí)的”,無論是在原則上還是實(shí)踐中都不可能。另一方面,一個(gè)用硅制成的神經(jīng)形態(tài)計(jì)算機(jī)可能有意識(shí),因?yàn)樗梢杂杀举|(zhì)上存在的類似神經(jīng)元的元素組成,并且具有與我們類似的因果結(jié)構(gòu)(即,因果效應(yīng)庫)(Tononi, 2015)。

因此,IIT反對(duì)功能主義,主張?jiān)诎5聽柭‥delman, 1992; Tononi & Edelman, 1998)的精神下,僅關(guān)注功能而忽視物理結(jié)構(gòu)無法解釋意識(shí)(Tononi, 2015)。特別是,回傳過程對(duì)于解釋意識(shí)至關(guān)重要:只有具備反饋環(huán)路的系統(tǒng)才能整合信息,而前饋系統(tǒng)則無法成為有意識(shí)的。因此,IIT不是功能主義的,因?yàn)樗鼜?qiáng)調(diào)了信息生成和整合(即意識(shí)處理)所需的物理組件的關(guān)鍵作用。此外,根據(jù)IIT,一個(gè)功能類似于有意識(shí)人類的系統(tǒng),只有在其使用與人類相同的架構(gòu)(即回傳架構(gòu))時(shí)才是有意識(shí)的。盡管IIT并非功能主義,但它最終承認(rèn)在不同系統(tǒng)中復(fù)制意識(shí)的可能性。

2.2 人工神經(jīng)網(wǎng)絡(luò)

從人工智能的早期階段開始,皮茨(Pitts)和麥克洛克(McCulloch)就提出了理想化人工神經(jīng)元網(wǎng)絡(luò)的概念(McCulloch & Pitts, 1943)。連接主義計(jì)劃隨后受到馬文·明斯基(Marvin Minsky)開創(chuàng)性批評(píng)的影響(Minsky & Papert, 2017),之后逐漸回歸,并在最近迎來了人工神經(jīng)網(wǎng)絡(luò)(ANNs)的使用和流行爆炸式增長(LeCun et al., 2015)。數(shù)十年的計(jì)算機(jī)研究在此基礎(chǔ)上發(fā)展,從簡(jiǎn)化的架構(gòu)到復(fù)雜的架構(gòu),從單層到多層人工神經(jīng)元——從感知器到深度學(xué)習(xí)(LeCun et al., 2015),再到大型語言模型(LMMs)中數(shù)十億參數(shù)的規(guī)模(例如ChatGPT)。不僅是符號(hào)主義方法(“傳統(tǒng)的老式人工智能”或GOFAI,包括紐厄爾和西蒙創(chuàng)建的“邏輯理論家”),這種方法在人工智能研究的初期占主導(dǎo)地位,旨在以高層次功能方式復(fù)制智能的邏輯方面,而忽略了底層的大腦機(jī)制;最終,即使包含對(duì)大腦的某些參考,人工神經(jīng)網(wǎng)絡(luò)計(jì)劃也無法完全解釋大腦架構(gòu)的復(fù)雜性(Moulin-Frier et al., 2016)。

事實(shí)上,人工神經(jīng)網(wǎng)絡(luò)中提到的“神經(jīng)元”概念(即模擬生物神經(jīng)元的數(shù)學(xué)函數(shù))遠(yuǎn)比其生物對(duì)應(yīng)物簡(jiǎn)單。例如,皮質(zhì)錐體神經(jīng)元的基底樹突和頂樹突區(qū)域分別連接到前饋和反饋信息處理(Aru et al., 2020)。這種生物神經(jīng)元固有的復(fù)雜性部分體現(xiàn)在大多數(shù)現(xiàn)代人工神經(jīng)網(wǎng)絡(luò)中,盡管用于人工智能應(yīng)用的結(jié)構(gòu)化神經(jīng)元仍然是一個(gè)活躍的研究領(lǐng)域(Haider et al., 2021; Max et al., 2023; Senn et al., 2023)。大腦的其他特性,例如GABA能中間神經(jīng)元的作用、乙酰膽堿和多巴胺等神經(jīng)遞質(zhì)的調(diào)節(jié)作用(Changeux & Lou, 2011),或者錐體細(xì)胞具有兩組功能上不同的輸入的能力(一組是關(guān)于神經(jīng)元傳遞信息的內(nèi)容,另一組可以在其他神經(jīng)元傳遞的信息背景下選擇性地放大該傳輸)(Phillips, 2023),都被轉(zhuǎn)化為大規(guī)模腦模型中的功能模式(Eliasmith et al., 2012; Humphries et al., 2012)。正如上文提到的多重可實(shí)現(xiàn)性論點(diǎn),問題在于這種功能模擬是否捕捉到了世界中的正確元素、過程和屬性,從而對(duì)目標(biāo)對(duì)象(例如大腦)提供一個(gè)經(jīng)驗(yàn)上充分的描述,并在此基礎(chǔ)上具備與之相同的屬性(例如人類特征的神經(jīng)基礎(chǔ)的相同因果效應(yīng),如意識(shí)處理)。換句話說,問題是能否在計(jì)算系統(tǒng)中重現(xiàn)現(xiàn)實(shí)世界對(duì)象(如大腦)的特征,包括基于數(shù)字電子原理構(gòu)建的系統(tǒng),這些原理不同于大腦的模擬生物原理。

人工智能的最新發(fā)展(例如ChatGPT、Sora、Dall-E、Stable Diffusion)進(jìn)一步說明了這種基本上基于算法的方法可以取得多大的成功,盡管關(guān)于其局限性的討論仍在繼續(xù)(Mitchell, 2023; Mitchell & Krakauer, 2023; Shanahan, 2024; Shanahan et al., 2021)。同樣,多年來,大量刻意排除對(duì)人類大腦任何參考的認(rèn)知過程的計(jì)算“功能主義”描述被生產(chǎn)出來。這再次聯(lián)系到認(rèn)知過程的多重可實(shí)現(xiàn)性問題:是否可以通過完全不同的生物、認(rèn)知或計(jì)算機(jī)制實(shí)現(xiàn)相同的結(jié)果?(Melis & Raihani, 2023)。我們面對(duì)的是類比還是同源?挑戰(zhàn)在于,迄今為止在許多應(yīng)用中取得成功的基于形式算法的計(jì)算方法,特別是所謂的神經(jīng)形態(tài)硬件(Petrovici et al., 2014; Poo, 2018),是否足以接近類似人類的意識(shí)處理、一種替代形式的意識(shí)處理,或者最終根本無法產(chǎn)生意識(shí)(Kleiner, 2024)。

組織的多層嵌套并行性

最常見的計(jì)算機(jī)硬件由微處理器組成,這些微處理器基于半導(dǎo)體晶體管(包括氧化物基憶阻器、自旋電子存儲(chǔ)器和閾值開關(guān))或神經(jīng)形態(tài)基板(Billaudelle et al., 2020; Pfeil et al., 2013)制造,并集成到腦電路芯片中。這些硬件的基本物理組件由少量化學(xué)元素構(gòu)成,計(jì)算速度非常高,遠(yuǎn)高于大腦(見下文),盡管系統(tǒng)中兩個(gè)邏輯組件之間的信息傳遞需要經(jīng)過編碼、刷新和解碼的多個(gè)階段,而不僅僅是電信號(hào)的速度(在標(biāo)準(zhǔn)電路板中約為光速的一半)。相比之下,大腦由多個(gè)嵌套層次的組織構(gòu)成,其化學(xué)基本成分高度多樣,遠(yuǎn)比任何計(jì)算機(jī)硬件中的成分更為復(fù)雜。確實(shí),像神經(jīng)形態(tài)系統(tǒng)這樣的計(jì)算模型可能被設(shè)計(jì)為考慮大腦組織的多層嵌套結(jié)構(gòu)(Boybat et al., 2018; Sandved-Smith et al., 2021; Wang et al., 2021),但事實(shí)仍然是,它們的主要結(jié)果是對(duì)大腦功能的有限模擬,而這些計(jì)算模型無法解釋人腦的生化多樣性及其藥理學(xué)特性,包括可能影響意識(shí)狀態(tài)和意識(shí)處理的疾?。≧aiteri, 2006)。事實(shí)上,大腦的高度生化多樣性可能在實(shí)現(xiàn)和調(diào)節(jié)意識(shí)處理方面發(fā)揮了作用(例如,通過精神藥物)。這種大腦生化多樣性在意識(shí)處理中的潛在作用應(yīng)進(jìn)一步探索,以便最終識(shí)別相關(guān)的架構(gòu)和功能原則,將其轉(zhuǎn)化為有意識(shí)的人工智能系統(tǒng)的開發(fā)。

在真實(shí)的大腦中,分子水平及其約束條件往往未被充分認(rèn)識(shí),但起著關(guān)鍵作用。蛋白質(zhì)是關(guān)鍵組成部分。這些大分子由氨基酸鏈組成,以高度復(fù)雜的組織方式折疊,能夠?yàn)榘ùx物、神經(jīng)遞質(zhì)、脂類和DNA在內(nèi)的多種配體創(chuàng)建特定的結(jié)合位點(diǎn)。其中包含催化/降解細(xì)胞代謝關(guān)鍵反應(yīng)的酶、細(xì)胞骨架和運(yùn)動(dòng)元件、轉(zhuǎn)錄因子等DNA結(jié)合蛋白、離子通道,以及最重要的神經(jīng)遞質(zhì)受體和與之相互作用的許多藥理學(xué)試劑。地球上所有生物中不同蛋白質(zhì)的數(shù)量估計(jì)為。在人類大腦中,涉及認(rèn)知軌跡的蛋白質(zhì)數(shù)量為3.7103–3.933(Wingo et al., 2019),占總基因數(shù)(約20,000個(gè))的重要部分。生物體內(nèi)的蛋白質(zhì)組分具有根本的異質(zhì)性,這對(duì)大腦代謝和調(diào)控做出了貢獻(xiàn)。這同樣適用于意識(shí)狀態(tài)及其多樣性的控制,如通過睡眠和覺醒的全局化學(xué)調(diào)節(jié)或?qū)е乱庾R(shí)改變狀態(tài)的多種藥物的多樣性來評(píng)估(Jékely, 2021)。在所有情況下,調(diào)節(jié)最終發(fā)生在蛋白質(zhì)層面。因此,在人類大腦中實(shí)現(xiàn)意識(shí)處理需要一個(gè)豐富且專用的生化環(huán)境,而當(dāng)前試圖生成人工意識(shí)處理的AI系統(tǒng)普遍缺乏這一環(huán)境:計(jì)算機(jī)沒有藥理學(xué),也沒有神經(jīng)精神病學(xué)疾病。數(shù)據(jù)表明,分子組分在理解生命及生物意識(shí)處理中的重要性,這一點(diǎn)正日益被神經(jīng)科學(xué)和哲學(xué)領(lǐng)域所認(rèn)識(shí)(Aru et al., 2023; Godfrey-Smith, 2023; Seth, 2021; 2024; Thompson, 2018)。事實(shí)上,原則上,藥理因素對(duì)人類意識(shí)的關(guān)鍵作用并不排斥人工智能系統(tǒng)可能實(shí)現(xiàn)非人類形式的替代意識(shí)(Arsiwalla et al., 2023)。我們提到上述分子和藥理學(xué)條件的目的是識(shí)別當(dāng)前AI系統(tǒng)所缺乏的因素,這些因素可以作為推動(dòng)人工意識(shí)發(fā)展的靈感來源。

另一個(gè)與生物大腦和計(jì)算機(jī)不同物理架構(gòu)相關(guān)并目前使它們產(chǎn)生差異的因素是信息處理的速度。如前所述,大腦的信息處理速度低于聲速,而計(jì)算機(jī)的工作速度接近光速。這在計(jì)算機(jī)和大腦之間造成了信息傳播速度的不可逾越的差異。神經(jīng)沖動(dòng)的傳導(dǎo)速度可達(dá)120米/秒(取決于軸突的直徑),這在很大程度上是由于某些髓鞘化軸突中離子通道的變構(gòu)轉(zhuǎn)變所致。但突觸施加了額外的限制,導(dǎo)致毫秒級(jí)的延遲,包括神經(jīng)遞質(zhì)的局部擴(kuò)散和受體激活過程的變構(gòu)轉(zhuǎn)變(Burke et al., 2024)。由于這些連續(xù)延遲的累積,心理時(shí)間尺度通常在100毫秒左右(50–200毫秒)(Grondin, 2001)。最后,外圍感覺信號(hào)到達(dá)意識(shí)的時(shí)間延遲可能達(dá)到約300毫秒(Dehaene & Changeux, 2011)。簡(jiǎn)而言之,標(biāo)準(zhǔn)計(jì)算機(jī)處理信息的速度比人類大腦快多達(dá)8個(gè)數(shù)量級(jí)。對(duì)于高度標(biāo)準(zhǔn)化的任務(wù)(如下棋),預(yù)計(jì)計(jì)算機(jī)效率更高。這部分歸因于不同的計(jì)算策略,計(jì)算機(jī)能夠并行測(cè)試數(shù)百萬種可能性,而人類大腦在心理時(shí)間尺度內(nèi)只能測(cè)試少數(shù)幾種。因此,計(jì)算機(jī)能夠處理的數(shù)據(jù)量巨大,甚至超出了人類一生所能處理的范圍。

此外,盡管通過神經(jīng)形態(tài)系統(tǒng)取得了一些顯著改進(jìn),包括每單位能耗的計(jì)算能力提升(Cramer et al., 2022; Esser et al., 2016; Goltz et al., 2021; Park et al., 2019),但人類大腦消耗的能量仍比標(biāo)準(zhǔn)計(jì)算機(jī)少幾個(gè)數(shù)量級(jí),尤其在大規(guī)模模型(如GPT-4)的情況下更是如此。大腦不僅更節(jié)能,而且樣本效率更高:深度學(xué)習(xí)模型被認(rèn)為在樣本效率上不如人類學(xué)習(xí),因?yàn)樗鼈冃枰罅坑?xùn)練數(shù)據(jù)才能在任務(wù)中達(dá)到人類水平的表現(xiàn)(Botvinick et al., 2019; Botvinick et al., 2020; Waldrop, 2019)。

因此,人工智能在模擬大腦過程方面的非凡成功主要?dú)w因于日益復(fù)雜的算法和計(jì)算機(jī)程序的處理速度。這種巨大的處理速度差異可能被解釋為反對(duì)人工意識(shí)的論據(jù)(Pennartz,2024):由于人工智能比人腦處理更多數(shù)據(jù)且速度更快,可能并行處理數(shù)據(jù)對(duì)于人工智能完成那些在人類中需要整合(即有意識(shí))過程的任務(wù)已經(jīng)足夠。事實(shí)上,有意識(shí)處理的一個(gè)關(guān)鍵特征是不同神經(jīng)元群體所處理信息的整合,最終形成一個(gè)多模態(tài)的統(tǒng)一體驗(yàn)。這種整合可以從根本上定義為一種由“點(diǎn)燃”活動(dòng)模式介導(dǎo)的表征廣播,即有序的神經(jīng)活動(dòng)模式(Mashour等,2020b)。從進(jìn)化的角度來看,由于生物內(nèi)在限制決定了感官模態(tài)的數(shù)量和復(fù)雜性,以及認(rèn)知與控制系統(tǒng)運(yùn)作的時(shí)間尺度,這種整合和廣播活動(dòng)服務(wù)于處理復(fù)雜信息的需求,即由多個(gè)元素組成、無法通過大腦并行處理的信息。在人工智能的情況下,其處理復(fù)雜信息的能力產(chǎn)生的整合與廣播并不與人腦處于相同水平或以相同方式進(jìn)行。實(shí)際上,現(xiàn)代人工智能系統(tǒng)高度模塊化,并基于表征的廣播,但這些模塊的特性及其整個(gè)AI系統(tǒng)并行計(jì)算能力的限制與人腦的特性顯著不同。

這一點(diǎn)可以通過質(zhì)量(即模塊能夠執(zhí)行的操作類型)和數(shù)量(即模塊能夠處理的數(shù)據(jù)量)來說明。從定性的角度來看,構(gòu)成AI系統(tǒng)的模塊多樣性可能體現(xiàn)在它們執(zhí)行的具體任務(wù)上,這可能接近于大腦可訪問的感官模態(tài)的多樣性,而這些模塊無法依賴賦予處理信息及其表征的不同情感價(jià)值,就像人腦能做到的那樣。這就是為什么,例如,深度卷積網(wǎng)絡(luò)最終只是“缺乏經(jīng)驗(yàn)內(nèi)容、想象力和環(huán)境整體感知的抽象概念集合”(Pennartz,2024)。因此,至少到目前為止,相比于人腦,AI模塊在性質(zhì)上有所不同,因?yàn)樗鼈儫o法賦予信息以體驗(yàn)價(jià)值。使用上述對(duì)訪問意識(shí)和現(xiàn)象意識(shí)的區(qū)別,模塊化的人工智能系統(tǒng)可能達(dá)到在不同模塊之間廣播信息的能力(即它們可能接近訪問意識(shí)),但目前看來它們似乎無法復(fù)制現(xiàn)象意識(shí)處理或主觀體驗(yàn)。Dehaene、Lau和Kouider提出了類似的解釋(Dehaene等,2017)。他們得出結(jié)論認(rèn)為,當(dāng)前的人工智能系統(tǒng)可能具備全局信息可用性(即選擇、訪問和報(bào)告信息的能力),但缺乏更高層次的元認(rèn)知能力(即自我監(jiān)控和信心評(píng)估的能力)(Lou等,2016)。

這種解釋與人工智能中注意力和訪問意識(shí)的實(shí)現(xiàn)及(當(dāng)前)工程設(shè)計(jì)現(xiàn)象意識(shí)的不可能性之間的區(qū)別相一致。同樣,Montemayor(2023)指出,現(xiàn)有人工智能系統(tǒng)僅限于滿足認(rèn)知需求的表征價(jià)值,而當(dāng)前人工智能沒有道德和審美需求的體驗(yàn),這些需求基于現(xiàn)象意識(shí)和主觀意識(shí)的內(nèi)在價(jià)值。

從定量的角度來看,人工智能系統(tǒng)的存儲(chǔ)能力和計(jì)算能力遠(yuǎn)超人腦,以至于它最終能夠在完全無意識(shí)的層面上執(zhí)行在人類中需要有意識(shí)努力才能完成的相同任務(wù)。事實(shí)上,有意識(shí)處理可以被視為一種進(jìn)化策略,用于增強(qiáng)具有有限記憶存儲(chǔ)和數(shù)據(jù)處理能力的生物系統(tǒng)的生存能力。

總之,不同的質(zhì)量和數(shù)量限制導(dǎo)致了不同的操作(有意識(shí)與無意識(shí))。有趣的是,當(dāng)對(duì)一個(gè)人工模型應(yīng)用“正確類型的限制”時(shí),某些屬性可能會(huì)作為結(jié)果發(fā)展出來(Ali等,2022)??赡苡幸庾R(shí)處理作為一種必要性是從人腦受限的計(jì)算能力中衍生出來的。

一個(gè)額外的問題是,是什么仍然使大腦在心理時(shí)間尺度上直至有意識(shí)處理表現(xiàn)出高性能。答案主要在于硬件架構(gòu),而這反過來又可能影響生物大腦能夠進(jìn)行的計(jì)算類型。在大腦中,神經(jīng)元及其神經(jīng)突以及它們復(fù)雜的連接性遠(yuǎn)比理想化的人工神經(jīng)元復(fù)雜得多。生物神經(jīng)元起源于確定的超分子組裝體,這些組裝體創(chuàng)造了重要的化學(xué)復(fù)雜性和細(xì)胞類型的多樣性(可能多達(dá)上千種),神經(jīng)元類型也因形狀、軸突-樹突分支和它們建立的連接而不同。一個(gè)重要的化學(xué)差異是它們合成和釋放的神經(jīng)遞質(zhì)(多達(dá)數(shù)百種)(Jékely,2021)。

根據(jù)它們釋放的神經(jīng)遞質(zhì),可以區(qū)分出兩類主要的神經(jīng)元(即興奮性與抑制性)。要通過簡(jiǎn)單的有意識(shí)任務(wù),比如前面提到的追蹤與延遲條件反射,需要多個(gè)疊加的組織層級(jí),而且興奮性和抑制性神經(jīng)元的貢獻(xiàn)似乎都是必要的(Grover等,2022;Volzhenin等,2022)。確實(shí),在深度網(wǎng)絡(luò)的情況下,權(quán)重矩陣包含盡可能多的負(fù)(抑制性)條目和正(興奮性)條目,并且存在包括興奮性和抑制性神經(jīng)元的神經(jīng)生物學(xué)上合理的反向傳播算法用于深度神經(jīng)網(wǎng)絡(luò)(Guerguiev等,2017;Lillicrap等,2020;Scellier & Bengio,2017;Whittington & Bogacz,2017),但是,正如上面提到的,生物神經(jīng)元類型的多樣性如此之大,以至于我們尚未完全理解它,所以這些計(jì)算算法可能最終會(huì)遺漏大腦中對(duì)意識(shí)處理至關(guān)重要的架構(gòu)和功能細(xì)節(jié)。

抑制性神經(jīng)元和興奮性神經(jīng)元構(gòu)成了基本的神經(jīng)網(wǎng)絡(luò)層級(jí),而這些網(wǎng)絡(luò)本身又構(gòu)建了更高層次的嵌套神經(jīng)元網(wǎng)絡(luò),以此類推。這種復(fù)雜的連接組學(xué)關(guān)系可能對(duì)認(rèn)知功能甚至意識(shí)的產(chǎn)生有所貢獻(xiàn)。例如,一種基于樹突整合自下而上和自上而下數(shù)據(jù)流的細(xì)胞意識(shí)理論被提出(Aru等,2020),這些數(shù)據(jù)流起源于丘腦-皮層神經(jīng)回路。即使存在例外(特別是在使用皮層微電路的神經(jīng)形態(tài)硬件中,如Haider等,2021;Max等,2023;Senn等,2023),但這種硬件復(fù)雜性在大多數(shù)最精密的超級(jí)計(jì)算機(jī)中通常是缺失的。此外,像大型語言模型(LLMs)這樣的系統(tǒng)確實(shí)表現(xiàn)出一些新興能力,這些能力可能源自其學(xué)習(xí)權(quán)重中存在的新興結(jié)構(gòu)。事實(shí)上,在架構(gòu)層面,它們被組織為大量層級(jí),這潛在地允許某種組織形式(即分層、嵌套和多層次),而在大腦中,這些組織形式被認(rèn)為對(duì)意識(shí)處理起著至關(guān)重要的作用。因此,我們?cè)瓌t上不能排除大型人工智能系統(tǒng)有可能發(fā)展出某些形式的意識(shí)處理能力,其特性由AI系統(tǒng)的結(jié)構(gòu)和功能組織的具體組成部分所塑造。

總之,大腦的分層、嵌套和多層次組織表明了一些當(dāng)前人工智能僅部分模擬的架構(gòu)和功能特征,我們認(rèn)為這些特征應(yīng)進(jìn)一步闡明并加以工程化,以推動(dòng)向開發(fā)有意識(shí)的人工智能邁進(jìn)。這些特征包括大規(guī)模的生化和神經(jīng)元多樣性(例如,興奮性與抑制性神經(jīng)元、連接組學(xué)關(guān)系、回路、丘腦-皮層環(huán)路)以及層級(jí)之間的各種自下而上/自上而下的調(diào)節(jié)機(jī)制。除此之外,這些組織特征限制了大腦中信息處理的速度,比人工智能慢幾個(gè)數(shù)量級(jí):這種差異最終可能使得人工智能在執(zhí)行那些對(duì)人類而言需要意識(shí)努力的任務(wù)時(shí),并不需要依賴意識(shí)處理。

4. 進(jìn)化:從大腦架構(gòu)到文化

4.1. 大腦的遺傳基礎(chǔ)與表觀遺傳發(fā)展

人類制造的計(jì)算機(jī)由預(yù)先連接的組件串聯(lián)而成,這些組件被剛性地組合成具有相同硬件的、基本時(shí)間不變的機(jī)器。另一方面,大腦的“硬件”是在達(dá)爾文進(jìn)化過程中從海綿逐步演化到人類大腦的,經(jīng)歷了多步選擇,導(dǎo)致其架構(gòu)和行為能力的復(fù)雜性逐漸增加(Kelty-Stephen等,2022)。這種選擇發(fā)生在本質(zhì)上不同的環(huán)境條件下,包括物理、社會(huì)以及可能的文化因素。因此,新的層級(jí)在舊的層級(jí)之上嵌套形成,而無需理性的(即可預(yù)測(cè)的)關(guān)系。大腦的架構(gòu)因此概括了其進(jìn)化歷史中的多重事件,它并非像人工智能系統(tǒng)那樣是理性設(shè)計(jì)的結(jié)果,而是可以被視為人類導(dǎo)向文化進(jìn)化的最終產(chǎn)物(可能包括變異和選擇過程)(Mesoudi等,2013;Solé等,2013;Valverde,2016)。

此外,基因組水平上的大腦進(jìn)化結(jié)果表明,如果每個(gè)新獲得的能力都建立在先前能力的基礎(chǔ)之上,那么在整個(gè)進(jìn)化過程中可能會(huì)發(fā)生強(qiáng)烈的基因組保守性。例如,果蠅的基因組與人類基因組有60%的同源性,約75%的人類疾病相關(guān)基因在果蠅中有同源基因(Ugur等,2016)。在此背景下,人類大腦的形成基于少數(shù)遺傳事件(大多尚未完全識(shí)別),并未涉及基因組的劇烈重組。然而,這些變化足以使遠(yuǎn)距離丘腦皮層區(qū)域之間的信息廣播(即全局神經(jīng)工作空間(GNW))得以出現(xiàn),并使意識(shí)獲得了成人人類大腦的具體特征(Changeux等,2021;Hublin & Changeux,2022)。

為了擺脫限制達(dá)爾文進(jìn)化的保守遺傳糾纏(在古生物學(xué)時(shí)間尺度上為數(shù)百萬年),一種更快(天、小時(shí)級(jí)別)的非遺傳進(jìn)化形式得以發(fā)展。這種進(jìn)化發(fā)生在出生后的發(fā)展階段(人類約為25年),在此期間約一半的突觸連接總數(shù)形成并塑造了成人人類大腦的連接組學(xué)“硬件”。CCD理論(Changeux等,1973)正式解釋了這種表觀遺傳進(jìn)化,該理論依賴于發(fā)育中的神經(jīng)元間連接的可變性和選擇-消除過程,這些過程形式上類似于通過變異-選擇進(jìn)行的達(dá)爾文式進(jìn)化(Changeux & Danchin,1976;Edelman & Mountcastle,1978;Kasthuri & Lichtman,2003)。大腦的發(fā)育——從新生兒到成人——以多步驟嵌套分層的形式進(jìn)行,由一系列突觸生長和選擇波次驅(qū)動(dòng)。這成為了一種機(jī)制,用于存儲(chǔ)在出生后發(fā)展中大腦與其物理、社會(huì)和文化環(huán)境互動(dòng)所產(chǎn)生的巨量長期記憶。該模型解釋了人類大腦的一個(gè)具有巨大社會(huì)意義的特性(Evers,2015),但這一特性在神經(jīng)科學(xué)中卻被嚴(yán)重低估:成人大腦連接性的表觀遺傳變異性。根據(jù)CCD變異性定理,“不同的學(xué)習(xí)輸入可能產(chǎn)生不同的連接組織和神經(jīng)元功能能力,但具有相同的行為能力”。因此,神經(jīng)元連接代碼表現(xiàn)出“退化性”(Edelman & Gally,2001;Edelman & Mountcastle,1978;Tononi等,1999),即不同的代碼詞(連接模式)可能攜帶相同的意義(功能)。這種變異性與發(fā)育過程中遇到的多樣化經(jīng)驗(yàn)的變異性疊加在基因組變異性之上。最終,每個(gè)人的歷史都被整合到大腦的硬件中。這種本質(zhì)的變異性甚至存在于同基因個(gè)體的大腦之間,與工業(yè)計(jì)算機(jī)硬件的可重復(fù)性形成了鮮明對(duì)比,盡管在特定任務(wù)訓(xùn)練中或部分模擬神經(jīng)形態(tài)計(jì)算機(jī)中也可能存在有限的變異性。

人類出生后發(fā)展期的延長在突觸選擇理論框架下具有重要影響,因?yàn)樗鼘?dǎo)致了個(gè)體經(jīng)驗(yàn)和文化的獲取與傳播在社會(huì)環(huán)境中發(fā)生。閱讀和寫作能力的獲取可以被視為大腦硬件中表觀遺傳發(fā)展的“文化回路”的典型例子。對(duì)文盲與識(shí)字者的比較行為和腦成像研究揭示了大腦功能連接組學(xué)的顯著差異(Castro-Caldas等,1998;Dehaene等,2010)。文化能力在每一代中從成人到兒童自發(fā)且必然地學(xué)習(xí),并通過表觀遺傳方式代代相傳,甚至從母親子宮內(nèi)開始,直到成年階段。這種文化的自發(fā)生成目前在計(jì)算機(jī)中尚無意義,盡管大型語言模型(LLMs)可能實(shí)現(xiàn)類似的動(dòng)態(tài)(https://arxiv.org/pdf/2402.11271.pdf)。事實(shí)上,AI(如LLMs)可能在大量數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,這可以被解釋為一種文化獲取形式。然而,這與人類的文化獲取存在關(guān)鍵區(qū)別,后者不能被簡(jiǎn)化為被動(dòng)的數(shù)據(jù)接收,而是個(gè)體之間以及世代之間對(duì)所接收到的數(shù)據(jù)進(jìn)行創(chuàng)造性再加工的過程。這些動(dòng)態(tài)取決于大腦并非信息的被動(dòng)存儲(chǔ)庫:同樣的信息可能對(duì)不同大腦或同一大腦在不同時(shí)間產(chǎn)生不同的影響,因?yàn)楦兄艿酱竽X自發(fā)活動(dòng)的調(diào)節(jié),這種活動(dòng)不僅僅是系統(tǒng)內(nèi)部運(yùn)作中的噪聲(見下文)。作為文化進(jìn)化的重大后果之一,與象征體驗(yàn)和情感標(biāo)記相關(guān)的技能和實(shí)踐(如理性思維(科學(xué))、行為準(zhǔn)則(倫理)和共同感受(藝術(shù)))在大腦連接性中被穩(wěn)定地表觀遺傳內(nèi)化,并成為某些群體獨(dú)有的特性。文化差異在不同人群之間產(chǎn)生,并在人類物種的歷史中產(chǎn)生了重要影響。它們?yōu)椴嫉隙蛩Q的主體“習(xí)性”做出了貢獻(xiàn):內(nèi)化的感知、行動(dòng)和評(píng)估的常規(guī)模式,往往持續(xù)一生(Changeux,2006)。這種通過具身程序動(dòng)力學(xué)逐步習(xí)得的傳感器運(yùn)動(dòng)序列模式的規(guī)律性,在符號(hào)系統(tǒng)和LLMs中缺乏,但在當(dāng)前的具身AI/機(jī)器人研究中正在探索(Gupta等,2021)。此外,設(shè)計(jì)用于控制機(jī)器人代理的網(wǎng)絡(luò)已被設(shè)計(jì)為遵循類似“突觸”生長、變異和選擇的進(jìn)化過程(Miglino等,1995;Nolfi等,1994)。更重要的是,超參數(shù)調(diào)整在現(xiàn)代AI中已成為標(biāo)準(zhǔn),包括改變網(wǎng)絡(luò)結(jié)構(gòu)、層數(shù)及其性質(zhì)、反饋回路、稀疏性、激活函數(shù)、感受野等。近年來,進(jìn)化方法明確成為現(xiàn)代建模研究的一部分(Jordan等,2021)。

總之,盡管在許多AI技術(shù)中實(shí)施進(jìn)化方法方面取得了近期進(jìn)展(如上所述),當(dāng)今AI仍然缺乏與人類大腦嚴(yán)格同源的進(jìn)化發(fā)展。

4.2. 人工智能與進(jìn)化:對(duì)人工意識(shí)的影響

人類類似的進(jìn)化過程的缺失是否是人工智能實(shí)現(xiàn)類似人類的意識(shí)處理的一個(gè)障礙?盡管人工智能缺乏嚴(yán)格的系統(tǒng)發(fā)生學(xué)進(jìn)化(因?yàn)樗怯扇祟愔圃斓模赡芫哂袀€(gè)體發(fā)生學(xué)的發(fā)展(例如,通過無監(jiān)督學(xué)習(xí)),這在原則上可以使人工智能獲得開發(fā)者最初未編程的能力。例如,深度強(qiáng)化學(xué)習(xí)系統(tǒng)便是如此(Silver等,2018;Vinyals等,2019)。

我們能否說這種形式的人工智能能夠從經(jīng)驗(yàn)中學(xué)習(xí),并因此發(fā)展出一種人工形式的“習(xí)性”、“氣質(zhì)”和“性格”?事實(shí)上,深度強(qiáng)化學(xué)習(xí)系統(tǒng)包括來自處理數(shù)據(jù)的各種反饋和錯(cuò)誤信號(hào),這些信號(hào)結(jié)合短期和長期記憶能力,可以被解釋為一種經(jīng)驗(yàn)形式。

那么表觀遺傳和文化進(jìn)化呢?盡管最近有一些關(guān)于文化進(jìn)化的計(jì)算研究表明,人工智能代理可以相互共享信息并學(xué)習(xí)執(zhí)行任務(wù)(arXiv:2206.05060)(Colas等,2022),但現(xiàn)階段人工智能大多缺乏與人類同源的表觀遺傳發(fā)展。由于人類的經(jīng)驗(yàn)和文化來源于表觀遺傳,因此可以基本推斷,人工智能(仍然)缺乏經(jīng)驗(yàn)與文化,至少?zèng)]有達(dá)到與人類相同種類和復(fù)雜程度的經(jīng)驗(yàn)與文化。

進(jìn)化分析(Kanaev,2022)以及對(duì)人類新生兒發(fā)育數(shù)據(jù)的研究(Lagercrantz & Changeux,2009,2010)表明,人類的“意識(shí)處理”是逐步發(fā)展的(Changeux,2006,2017)。

(i) 最低層次的“最小意識(shí)”:簡(jiǎn)單生物(如大鼠或小鼠)表現(xiàn)出的特征是能夠展示自發(fā)運(yùn)動(dòng)活動(dòng),并從視覺和聽覺體驗(yàn)中創(chuàng)建表征,將其存儲(chǔ)在長期記憶中并加以使用,例如用于趨近或回避行為以及所謂的探索行為。根據(jù)Lagercrantz(2016)的說法,25-30周的早產(chǎn)胎兒已經(jīng)達(dá)到類似于(盡管不完全相同)新生大鼠/小鼠的大腦成熟階段;他/她可以在感覺皮層中處理觸覺和疼痛刺激(Bartocci等,2006),感知疼痛,從而顯示出最小意識(shí)的跡象。

(ii) “遞歸意識(shí)”(Zelazo等,2004):存在于綠猴(可能還包括一些鳥類中),表現(xiàn)為對(duì)物體的功能性使用和原聲明式指向;這一層次的生物可能展示復(fù)雜的社交互動(dòng)、模仿、社會(huì)參照和共同注意;它們有能力同時(shí)在記憶中保持多個(gè)心理表征,并能夠評(píng)估自我關(guān)系;它們?cè)谔幚肀碚鲿r(shí)表現(xiàn)出遞歸性的初級(jí)形式,但尚未達(dá)到相互理解的程度;沿此方向,新生兒表現(xiàn)出感官意識(shí)、表達(dá)情感的能力以及處理心理表征的能力(例如奶嘴的表征);他/她已經(jīng)能夠區(qū)分自我和非自我的觸碰(Rochat,2003)。

(iii) 顯式的“自我意識(shí)”:在嬰兒兩歲末期發(fā)展起來,伴隨著工作記憶和情景記憶以及語言的一些基本方面;其特征是在鏡子測(cè)試中的自我識(shí)別,并能夠使用單一任意規(guī)則進(jìn)行自我-他人區(qū)分(Lou等,2017;Posner & Rothbart,2007);某種程度上,黑猩猩可能達(dá)到這一水平(Boakes,1984)。

(iv) “反思意識(shí)”、心智理論和完整的意識(shí)體驗(yàn):具備第一人稱本體論和可報(bào)告性,在人類中完全發(fā)展,并在兒童3-5歲時(shí)逐漸形成。

在出生時(shí),所有主要的長距離纖維束已經(jīng)就位(Dubois等,2015),盡管仍然不成熟。在5個(gè)月、12個(gè)月和15個(gè)月大的嬰兒中記錄到了與成人GNW點(diǎn)燃同源的意識(shí)處理的電生理特征(Dehaene-Lambertz & Spelke,2015;Kouider等,2013)。

簡(jiǎn)而言之,主觀體驗(yàn)可以說來源于時(shí)間延展的表觀遺傳發(fā)展過程(即大腦連接組的變化,最終改變了大腦網(wǎng)絡(luò)中神經(jīng)元的數(shù)量及其連接)。換句話說,意識(shí)是一個(gè)過程,它依賴于并受到有機(jī)體(尤其是其大腦)與環(huán)境之間(或多或少)時(shí)間延展的互動(dòng)所塑造。

目前的人工智能只有有限形式的這種互動(dòng)發(fā)展,這意味著信息的社會(huì)和情感意義及價(jià)值在人工智能中大多缺失或僅有限存在。事實(shí)上,人工智能無法體驗(yàn)世界,也沒有心智理論(Pennartz,2024):數(shù)字人工智能以不同于人類的格式處理信息,這使得人工智能能夠訪問的世界與人類能夠訪問的世界顯著不同。有關(guān)模擬計(jì)算和人工智能的研究原則上可能使其發(fā)展出更類似人類的體驗(yàn),但結(jié)果仍處于初步階段。

此外,鑒于意識(shí)發(fā)展的這些不同可能階段,開發(fā)人工意識(shí)處理的嘗試應(yīng)明確其目標(biāo)的具體階段。

到目前為止,包括神經(jīng)形態(tài)方法在內(nèi)的各種人工智能預(yù)計(jì)不會(huì)表現(xiàn)出人類完全意識(shí)體驗(yàn)的所有特征。然而,它們可能具備某些標(biāo)志性特征,例如持續(xù)的工作記憶痕跡、全局整合和決策能力。它們可能達(dá)到我們所稱的“最小意識(shí)”水平,或者可能具備“遞歸意識(shí)”的某些特征,但目前看來,“自我意識(shí)”或“反思意識(shí)”似乎無法在人工系統(tǒng)中實(shí)現(xiàn)。

另一種可能性是,同一個(gè)人工意識(shí)假設(shè)系統(tǒng)可以被視為處于逐步發(fā)展的過程中。盡管這不是人工智能的主要趨勢(shì),但艾倫·圖靈早在1950年就提出將發(fā)展視為創(chuàng)建和教導(dǎo)人工智能的一種范式,就像我們可以教導(dǎo)一個(gè)孩子一樣。

總之,當(dāng)前的人工智能系統(tǒng),特別是模擬特定大腦計(jì)算模型的神經(jīng)擬態(tài)機(jī)器人系統(tǒng),在從同一計(jì)算模型的功能組織中產(chǎn)生變異性方面受到限制,而這種變異性是達(dá)爾文生物進(jìn)化和通過選擇與放大機(jī)制進(jìn)行表觀遺傳發(fā)展的結(jié)果。此外,當(dāng)前的人工智能系統(tǒng)缺乏大腦漫長的出生后發(fā)展過程,這一過程導(dǎo)致了來自物理、生物和社會(huì)文化環(huán)境的多層嵌套表觀遺傳突觸選擇(作為“印記”)。由于大腦特有的突觸選擇達(dá)爾文機(jī)制,不同的連接模式可能承載相同的功能,從而導(dǎo)致可塑性、個(gè)體差異和創(chuàng)造力。

這意味著,迄今為止,人工智能在類似人類大腦的進(jìn)化和表觀遺傳發(fā)展方面的能力有限。僅憑這一點(diǎn),我們不能從理論上排除深度強(qiáng)化學(xué)習(xí)系統(tǒng)有一天可能會(huì)以一種可以描述為與環(huán)境的表觀遺傳關(guān)系的方式對(duì)學(xué)習(xí)和經(jīng)驗(yàn)作出反應(yīng)。然而,對(duì)于旨在提取意識(shí)處理潛在原則并將其復(fù)制到人工系統(tǒng)中的理論計(jì)算方法而言,這可能也是一個(gè)限制(Blum & Blum,2023)。

從這個(gè)角度來看,大型語言模型(LLMs)的局限性在于,它們目前缺乏人類通過身體介導(dǎo)的對(duì)世界的多維和多感官表征,因此它們本質(zhì)上接觸到的知識(shí)是有限且扭曲的,最終不足以實(shí)現(xiàn)對(duì)世界的多模態(tài)(即有意識(shí)的)表征。機(jī)器人技術(shù),包括最近與LLMs的結(jié)合(Zhang等,2023),以及神經(jīng)形態(tài)人工智能,有望為AI提供一種具身形式,這在原則上可以實(shí)現(xiàn)人工的多模態(tài)體驗(yàn)。例如,在具備自我監(jiān)控能力的機(jī)器人系統(tǒng)上已經(jīng)取得了顯著成果,這種能力至少復(fù)制了人類自我意識(shí)的某些方面(Chella等,2008),特別是依賴于內(nèi)心語言的能力(Chella等,2020;Pipitone & Chella,2021)。

然而,AI在其與世界互動(dòng)中顯然缺乏任何情感投入的問題依然存在。鑒于由具身特性(如情緒)所介導(dǎo)的人類有機(jī)體的評(píng)估能力在意識(shí)體驗(yàn)中的重要作用,這種缺乏可能成為通往有意識(shí)AI道路上需要進(jìn)一步研究并克服的潛在障礙。

總之,當(dāng)前AI僅部分實(shí)現(xiàn)、而當(dāng)前關(guān)于意識(shí)AI的研究應(yīng)嘗試更好模擬的大腦特征包括:對(duì)世界的具身化感官運(yùn)動(dòng)體驗(yàn)、大腦的自發(fā)活動(dòng)(這不僅僅是像當(dāng)前AI系統(tǒng)中的簡(jiǎn)單噪聲)、自創(chuàng)生(作為不斷自我實(shí)現(xiàn)的能力)以及基于情緒的獎(jiǎng)勵(lì)系統(tǒng)。

6. 大腦中的有意識(shí)與無意識(shí)處理,或“思維實(shí)體”與“物質(zhì)實(shí)體”

上述提到的自發(fā)活動(dòng)對(duì)于區(qū)分有意識(shí)和無意識(shí)處理具有重要意義,這一區(qū)分早在笛卡爾通過提出“思維實(shí)體”(res cogitans)與“物質(zhì)實(shí)體”(res extensa)時(shí)便已暗示。這兩個(gè)概念在非二元論背景下被明確表述,體現(xiàn)在使用相同術(shù)語“res”上(Changeux & Ricoeur,1998)。用現(xiàn)代術(shù)語來說,這意味著有意識(shí)表征在“物理”或生理層面上與無意識(shí)表征不同。為了區(qū)分兩者,引入了掩蔽任務(wù)。當(dāng)一個(gè)表征——例如,在視覺通路中——從V1區(qū)域傳遞到顳葉皮層時(shí),無意識(shí)表征會(huì)被捕獲,直到刺激呈現(xiàn)后約200至300毫秒時(shí)出現(xiàn)活動(dòng)的突然發(fā)散。當(dāng)刺激變得有意識(shí)時(shí),會(huì)出現(xiàn)額外活動(dòng)的強(qiáng)烈激增并廣泛傳播,尤其是在到達(dá)前額葉和頂葉皮層時(shí)(成為“現(xiàn)象性”的)。這種非線性發(fā)散被稱為“點(diǎn)燃”(Dehaene & Changeux,2005),并且無論使用何種刺激模態(tài)或操縱意識(shí)的范式都會(huì)發(fā)生(Del Cul等,2009;Klatzmann等,2023;Mashour等,2020a)。即使在沒有外部刺激的情況下,也可以記錄到自發(fā)的點(diǎn)燃(Koukouli等,2016;Moutard等,2015)。

在全局工作空間架構(gòu)中的首次點(diǎn)燃模擬(Dehaene & Changeux,2005;Dehaene等,2003)已經(jīng)強(qiáng)調(diào)了長距離遞歸連接和自上而下連接在維持長時(shí)間持續(xù)點(diǎn)燃中的關(guān)鍵作用:當(dāng)感官刺激被有意識(shí)地感知時(shí),會(huì)出現(xiàn)更穩(wěn)定的活動(dòng)(Schurger等,2015)。最近,Klatzmann等人(2023)提出,AMPA受體介導(dǎo)的興奮性電流的快速起始和終止可能幫助感覺區(qū)域快速對(duì)外部刺激的變化作出反應(yīng)(Self等,2012;Yang等,2018),但刺激之后,NMDA受體的緩慢時(shí)間常數(shù)有助于在前額葉皮層和GNW中維持特定于刺激的活動(dòng)(Wang,1999;Wang等,2013)。這進(jìn)一步說明了大腦生化多樣性在有意識(shí)處理中的相關(guān)性(見上文)。

當(dāng)處于有意識(shí)狀態(tài)時(shí),“表征”表現(xiàn)出獨(dú)特的特性。例如,它們具有的聯(lián)想特性使它們能夠組織成鏈條,并構(gòu)建出人類、猴子甚至可能計(jì)算機(jī)中不存在的推理形式。經(jīng)典解釋是,猴子的工作記憶非常淺(精確為1-2,黑猩猩為2.1),而人類的工作記憶則遠(yuǎn)高于此(7±2)。更重要的是,有意識(shí)表征具有獨(dú)特的神經(jīng)組織方式,使其能夠建立“物理鏈接”形成一個(gè)序列,該序列能夠整合每個(gè)組成部分的意義并產(chǎn)生全局意義。在此基礎(chǔ)上(盡管仍大部分未被探索),應(yīng)該能夠構(gòu)建句子、提出推理、解釋語言生成性(即生成從未說過的新句子并理解從未聽過的新句子的能力),以及遞歸性(即將一個(gè)成分嵌套到同類型另一個(gè)成分內(nèi)部并構(gòu)建一棵樹、一個(gè)語言元素或可重復(fù)使用的語法結(jié)構(gòu)的能力)。在所有這些例子中,皮層和非皮層神經(jīng)元都會(huì)通過獎(jiǎng)勵(lì)系統(tǒng)的廣泛選擇參與其中。

最近有人聲稱大型語言模型(LLMs)具備這些能力,特別是句法語言生成性。這取決于語言生成和理解的概念如何定義。LLMs可以基于統(tǒng)計(jì)模式生成新詞組合,并識(shí)別這些詞之間的聯(lián)系。這種語言生成和理解是句法性的,獨(dú)立于語義(即可能通過選擇性獎(jiǎng)勵(lì)賦予意義),而這正是人類語言生成和理解的特點(diǎn)(Bennett,2023;Marcus & Davis,2019)。即使LLMs能夠完全模擬語義連貫的人類生成語言,它們也采用與人腦不同的策略,且不包括通常意義上的意義理解(Wolfram,2023)。

同樣的情況可能適用于推理和創(chuàng)造力。盡管這些特性的細(xì)節(jié)在人腦中仍有待澄清,但數(shù)據(jù)一致表明內(nèi)在和外在獎(jiǎng)勵(lì)在選擇和穩(wěn)定創(chuàng)造性任務(wù)(如藝術(shù)創(chuàng)作)相關(guān)的神經(jīng)元配置中起著核心作用(Changeux,2019)。此外,“退化性”原則(即許多神經(jīng)元組合可能導(dǎo)致相同的功能結(jié)果)是人腦可塑性和創(chuàng)造力的基礎(chǔ),而在人工智能中這一點(diǎn)似乎顯著受限,盡管神經(jīng)網(wǎng)絡(luò)剪枝和神經(jīng)形態(tài)硬件取得了一些相關(guān)成果。

總之,可以幫助當(dāng)代開發(fā)有意識(shí)AI系統(tǒng)的大腦特征包括:有意識(shí)與無意識(shí)表征之間的清晰區(qū)分(例如通過點(diǎn)燃現(xiàn)象劃分),以及由此產(chǎn)生的有意識(shí)表征的獨(dú)特聯(lián)想特性;大腦的語義能力,這體現(xiàn)在符號(hào)理解及互助能力上;有意識(shí)表征的獨(dú)特關(guān)聯(lián)特性,將其組織成有意義的序列,最終發(fā)展出推理和理性思維能力。

7. 人工智能意識(shí)與社會(huì)互動(dòng)對(duì)理性思維和語言的挑戰(zhàn)

從進(jìn)化和神經(jīng)科學(xué)數(shù)據(jù)出發(fā),我們已在上文列舉了人工智能研究在嘗試推進(jìn)人工意識(shí)開發(fā)時(shí)可能需要考慮的一系列特征。我們所概述的當(dāng)前人工智能的一些局限性已被其他作者指出,例如具身性、情感和動(dòng)機(jī)在機(jī)器意識(shí)中的作用,以及機(jī)器人體驗(yàn)的問題(Chella & Manzotti,2009;Montemayor,2023),而其他一些問題則較少被探討。其中,個(gè)體在社會(huì)群體中互動(dòng)的能力引發(fā)了許多人類特有的傾向,包括心智理論、文化體驗(yàn)和倫理責(zé)任。

原則上,人工智能構(gòu)造具有不同于生物系統(tǒng)的物理結(jié)構(gòu)和功能組織(即使是可能有意識(shí)的生物系統(tǒng),例如人類與其他物種,包括果蠅(Grover等,2022)),這并不意味著人工智能系統(tǒng)無法或不能變得有意識(shí)。上述分析揭示了一些數(shù)據(jù)表明與人腦中有意識(shí)處理相關(guān)的因素,但這不足以得出這些因素是人類、其他生物系統(tǒng)或人工系統(tǒng)中有意識(shí)處理的必要條件。值得注意的是,人工形式意識(shí)的實(shí)際存在問題是重要的實(shí)證問題:我們需要可靠的指標(biāo)來識(shí)別人工智能系統(tǒng)中的非生物意識(shí)處理(Bayne等,2024;Dung,2023;Pennartz等,2019)。然而,這一挑戰(zhàn)不僅是實(shí)證性的,也是概念性的:我們?nèi)绾胃拍罨环N非生物形式的有意識(shí)處理?我們通常用來指代意識(shí)的語言和概念類別可能并不合適(例如,它們過于擬人化和以人為中心),應(yīng)該被替代。正如Pennartz等人(2019)所述,我們可以使用相同的術(shù)語并相應(yīng)擴(kuò)展其應(yīng)用范圍,或者我們可以創(chuàng)造一個(gè)新術(shù)語來指代機(jī)器。這種選擇在認(rèn)知層面上非常重要。事實(shí)上,“語言創(chuàng)新必須有充分的理由以避免概念膨脹。然而,如果我們過于受制于常用的傳統(tǒng)用法,就會(huì)阻礙新思想的發(fā)展。我們的語言需要進(jìn)化,以便能夠表達(dá)新的思想、知識(shí)和規(guī)范體系。”(Pennartz等,2019)

我們無意重新發(fā)明術(shù)語,而是希望推薦在將意識(shí)概念應(yīng)用于人工智能時(shí)改進(jìn)術(shù)語和概念的清晰度。這種需求可以被視為新技術(shù)發(fā)展導(dǎo)致概念適應(yīng)更廣泛呼吁的一部分,正如概念工程中所表達(dá)的那樣(Hopster & Lohr,2023)。我們建議的另一個(gè)具體理由源于意識(shí)的多維性,這對(duì)任何試圖開發(fā)人工意識(shí)的努力都至關(guān)重要,即明確目標(biāo)是哪一維度和/或哪種形式的意識(shí)。雖然將注意力和智能等其他心理術(shù)語擴(kuò)展到非人類動(dòng)物和人工智能系統(tǒng)可能比意識(shí)顯得不那么成問題,但在將任何心理術(shù)語應(yīng)用于人工智能時(shí),我們需要區(qū)分兩個(gè)語義維度:認(rèn)識(shí)論維度(即該術(shù)語所指特征的本質(zhì)是什么?)和功能維度(即該術(shù)語所指特征如何運(yùn)作?其相關(guān)架構(gòu)是什么?即結(jié)構(gòu)與功能的適當(dāng)組合)。雖然將第一個(gè)維度擴(kuò)展到人工智能存在問題,但只要能夠在適當(dāng)?shù)囊?guī)?;蚣?xì)節(jié)水平上復(fù)制相關(guān)結(jié)構(gòu)和功能,則第二個(gè)維度的擴(kuò)展可能更為直接,如上文所述。無論如何,基于神經(jīng)科學(xué)的語言和概念發(fā)展似乎是有道理的。

總之,在將意識(shí)歸因于人工智能時(shí)需要謹(jǐn)慎,特別是在進(jìn)行這種歸因時(shí)改進(jìn)概念的清晰度。這不僅僅是溝通的問題,還涉及思想發(fā)展的過程,因?yàn)檎Z言在認(rèn)識(shí)論上塑造思想(即我們能思考和知道什么)和規(guī)范性上塑造思想(即我們所發(fā)展的價(jià)值觀)。因此,這些問題為我們提出了需要做出的概念選擇,這些選擇既要在哲學(xué)上(就清晰度、簡(jiǎn)潔性和邏輯一致性而言)也要在實(shí)證上(就科學(xué)依據(jù)、實(shí)驗(yàn)驗(yàn)證和解釋力而言)進(jìn)行。

8. 結(jié)論

我們?cè)诖嘶仡櫫舜竽X的一些結(jié)構(gòu)、進(jìn)化和功能特征,這些特征在實(shí)現(xiàn)和/或調(diào)節(jié)人類意識(shí)方面發(fā)揮了重要作用(見表1)。這些特征可能有助于使人工意識(shí)成為可能。在此背景下,我們也指出了當(dāng)前計(jì)算機(jī)硬件和人工智能模型的一些局限性,并建議改進(jìn)這些方面以加速人工意識(shí)開發(fā)的研究(見表2)。

打開網(wǎng)易新聞 查看精彩圖片
打開網(wǎng)易新聞 查看精彩圖片

即使從理論上講,開發(fā)具有非類人形式意識(shí)的人工系統(tǒng)是可行的,我們認(rèn)為,考慮到上述目前尚未完全轉(zhuǎn)化為人工智能的大腦特征,可能會(huì)加速和豐富有意識(shí)人工系統(tǒng)的發(fā)展。這并不意味著實(shí)際上可以開發(fā)出類人的有意識(shí)人工系統(tǒng)。事實(shí)上,要公平地模擬人類的意識(shí)處理過程仍然有很長的路要走,甚至可能永遠(yuǎn)無法實(shí)現(xiàn)。鑒于這種不確定性,我們建議暫時(shí)不要對(duì)人類和人工系統(tǒng)使用相同的通用術(shù)語(即“意識(shí)”);應(yīng)明確指出它們之間的關(guān)鍵差異;最后但同樣重要的是,必須非常清楚人工系統(tǒng)可能具備的意識(shí)維度、規(guī)模和水平。

https://www.sciencedirect.com/science/article/pii/S0893608024006385