Is artificial consciousness achievable? Lessons from the human brain

《人工智能意識是否可實現?來自人腦的啟示》

https://www.sciencedirect.com/science/article/pii/S0893608024006385

打開網易新聞 查看精彩圖片
打開網易新聞 查看精彩圖片

摘要

我們在此從進化的角度分析開發(fā)人工意識的問題,以人類大腦的進化及其與意識的關系作為參考模型或基準。這種分析揭示了人類大腦的若干結構和功能特征,這些特征似乎是實現類人復雜意識體驗的關鍵,當前的人工智能(AI)研究在試圖開發(fā)具備類人意識處理能力的系統(tǒng)時應予以考慮。我們認為,即使人工智能在模擬人類意識方面受到限制,無論是由于內在原因(即結構和架構上的限制)還是外在原因(即當前科學技術知識的局限性),借鑒那些使類人意識處理成為可能或對其產生調節(jié)作用的大腦特性,仍是一種具有潛在前景的策略,可推動意識AI的發(fā)展。

此外,從理論上不能排除人工智能研究可能開發(fā)出部分或替代形式的意識,這些意識在質量上與人類的意識形式不同,并且可能根據不同的視角而表現出更高的復雜性或更低的復雜性。因此,我們建議在討論人工意識時采取受神經科學啟發(fā)的謹慎態(tài)度:由于將“意識”一詞同時用于人類和AI可能會引起歧義并導致潛在誤導,我們建議明確說明人工智能研究旨在開發(fā)何種層次或類型的意識,以及人工智能的意識處理與人類意識體驗之間有哪些共同點和差異。

關鍵詞: 大腦 意識 人工智能 神經形態(tài)計算 機器人技術 認知 神經科學

1. 引言

自亥姆霍茲(Helmholtz)、杜布瓦-雷蒙(DuBois-Reymond),甚至弗洛伊德(Freud)在1842年莊嚴宣誓“生物體內除了普遍的物理化學力量之外,沒有其他力量在起作用”以來,科學界廣泛認同大腦是一個“物理化學系統(tǒng)”,而“意識”是其最復雜精妙的特征之一。盡管對這一現象的具體解釋尚無共識,但可以推測,從理論上講,遲早可以通過物理化學方法人工模擬大腦的功能,包括意識。然而,這種情況類似于“試管中的生命”問題——即使對于最簡單的生物體,盡管其所有分子成分都已知,但至今無人能夠從其分離的組分重新構建出一個活的有機體。這一問題不僅是理論上的,更重要的是實踐上的難題。

開發(fā)人工意識形式的可能性正逐漸成為神經科學、機器人技術、人工智能(AI)、神經形態(tài)計算、哲學及其交叉領域研究者和普通公眾心中的現實可能性(Blum & Blum, 2023, 2024; Butlin et al., 2023; LeDoux et al., 2023; Oliveira, 2022; VanRullen & Kanai, 2021)。人工意識處理的挑戰(zhàn)也引發(fā)了社會和倫理方面的擔憂(Farisco, 2024; Farisco et al., 2023; Hildt, 2023; Metzinger, 2021)。因此,從多學科角度批判性評估開發(fā)人工意識處理的可行性,并分析這一概念可能的含義,顯得尤為及時。最近已有相關的嘗試提出(Aru et al., 2023; Godfrey-Smith, 2023; Seth, 2024)。

當前關于人工意識處理在理論上是否可設想以及技術上是否可行的討論,首先受到“意識”一詞語義模糊性和多義性的影響。這包括現象學(即主觀的第一人稱體驗)與潛在生理學(即第三人稱對意識的訪問)之間的區(qū)別(Evers & Sigman, 2013; Farisco et al., 2015; Levine, 1983),以及有意識表征與無意識表征之間的基本區(qū)分(Piccinini, 2022)。此外,意識處理的意義可能因分析背景的不同而有所變化,并具有不同的維度,這些維度可能表現出不同的層次,從而形成不同類型或模式的意識處理(Bayne et al., 2016; Dung & Newen, 2023; Irwin, 2024; Walter, 2021)。從詞源上看,“意識”源自拉丁文“conscientia”,意為“共同的知識”(cum scire),在自信與共謀之間搖擺,直到經典定義“人類捕捉自身現實的能力”(Malebranche, 1676),或神經精神病學家亨利·艾(Henri Ey)所描述的“主體對客體的認識以及客體對主體的反向參照”。因此,個體既是其認知的主體,也是其作者。拉馬克(Lamarck)在1809年提到一種某些動物甚至人類特有的能力,他稱之為“sentiment interieur”(內在感受)。更近一些,內德·布洛克(Ned Block)提出了“通達意識”與“現象意識”的區(qū)分:通達意識指不同心理狀態(tài)之間的互動,尤其是某種狀態(tài)的內容可用于推理并合理指導言語和行動等能力;現象意識則是特定體驗的主觀感受,即“處于某種狀態(tài)是什么樣的感覺”(Block, 1995)。因此,認知與主觀體驗是有意識處理的兩個核心組成部分,其基本定義可以概括為“對身體、自我和世界的感官覺察”(Lagercrantz & Changeux, 2009),包括“內在的、定性的、主觀的感受或覺察狀態(tài)與過程”(Searle, 2000)。在個體層面上,有意識處理的具身化成分還包括表達情感、記憶、符號、語言、自傳式報告和心理時間旅行的能力,以及內省并報告自身心理狀態(tài)的能力;在社會層面上,則包括持續(xù)的個體間互動,這種互動使人們能夠獲得各種社會關系,如同情和共鳴(Lagercrantz & Changeux, 2009)。

在目前提出的眾多理論和計算機科學模型中,據我們評估,沒有一個模型能夠涵蓋人類高級腦功能的整體物種特異性方面(van Rooij et al., 2023)。于是問題出現了:這些模型是否能在進一步發(fā)展后達到這些方面,還是差距不可彌補?與此同時,越來越多的公民面對著人工智能對人類行為(包括有意識處理)的模擬,并對此感到擔憂(Lenharo, 2024):人工意識系統(tǒng)的前景可能會對人類的自我理解產生影響,例如,如果人工智能取代了需要意識能力的任務,人類將如何應對?因此,有必要用實際的人類大腦組織、認知和行為表現來檢驗人工智能模型。問題是:是否存在任何理論上的計算機科學表征能夠導致類似人類的人工意識系統(tǒng)?機器能否發(fā)展出類似人類的意識,或者是一種不同的意識形式,抑或根本無法發(fā)展出意識?人工意識的概念是否有意義,如果有,又是怎樣的意義?借用伏爾泰的話:機器能覺醒嗎?

在過去幾十年中,許多模型主要由神經科學家提出,目標更為謙遜:從已知的解剖學和生理學模塊出發(fā),重建神經系統(tǒng)的基本功能(如水蛭的游泳行為(Stent et al., 1978)或七鰓鰻的行為(Grillner et al., 1995))。其中一些模型甚至被設計用于模擬更復雜的認知任務,例如威斯康星卡片分類任務(Dehaene & Changeux, 2011)以及痕跡條件反射與延遲條件反射(Grover et al., 2022)。有必要進一步發(fā)展人工智能、哲學和神經科學之間的接口,這一領域的合作迄今為止已經帶來了相互的認識論和方法論豐富(Alexandre et al., 2020; Farisco et al., 2023; Floreano et al., 2014; Floreano & Mattiussi, 2008; Hassabis et al., 2017; Momennejad, 2023; Poo, 2018; Zador et al., 2023)。事實上,盡管這些合作意義重大,但仍不足以解決人工意識的問題。關鍵且仍然懸而未決的問題是:需要考察和解釋哪些人工智能與大腦之間的具體相似點和差異點,才能更適當地接近人工意識處理?換句話說,基于我們對人類大腦中意識處理的了解,哪種“描述層次”適合于建模甚至生成人工意識處理?

此外,在神經科學領域,“意識”一詞仍然定義不清,正如我們將看到的那樣,人類的意識處理并非一個全或無的不可化約特性,而是逐步發(fā)展的(Changeux, 2006, 2017; Lagercrantz & Changeux, 2009; Tomasello, 2022; Verschure, 2016)。鑒于這些可能的發(fā)展階段,人工智能試圖開發(fā)人工意識處理時,應明確選擇其中哪一個階段(如果有的話)。

在這篇文章中,我們希望在現有生物學大腦知識的背景下重新評估人工意識的問題,采取一種務實的方法,探討開發(fā)人工意識的可設想性和可行性,并以人類大腦作為參考模型或基準。我們的目標是補充近期在此方向上的嘗試(Aru et al., 2023; Godfrey-Smith, 2023),通過對人類大腦在進化過程中多層次生物復雜性的綜合分析,不僅為了推進對意識處理本身的理解,還為了最終啟發(fā)旨在開發(fā)人工意識處理的正在進行的人工智能研究。因此,我們的目標既具有理論性和哲學性,也高度實用,作為一個工程問題:我們回顧了一些科學證據,這些證據涉及大腦中對人類意識的關鍵促成或調節(jié)(或兩者兼有)的特征,并主張從這些特征中汲取靈感,以推動開發(fā)有意識的人工智能系統(tǒng)。

我們并不聲稱開發(fā)人工意識必須整合人類大腦中有意識處理的機制。事實上,我們承認,理論上不能排除與大腦機制不同的人工意識特征的存在。我們建議的是,將目前已識別的大腦中有意識處理的機制作為基準,以便從實用的角度推進能夠模擬人類意識處理可及特征的人工模型的構建。鑒于圍繞構建與大腦機制無關的人工意識的可能性存在高度爭議,以及由此可能導致過于抽象的觀點而缺乏實證數據支持的風險,我們認為從意識的生物學出發(fā)是一種更具生產力的策略。

然而,我們可以提出的一個問題是:首先追求人工意識對科學或整個社會有什么好處?對此有多種可能的答案。在認識論層面上,與中世紀經院哲學的觀點一致(例如保羅·瓦萊里(Paul Valéry)重申的觀點:“我們只能理解我們能夠構建的東西”),很明顯,構建某些具體意識處理特征的人工模型,最終或許可以讓我們更好地理解生物意識,無論是從相似性還是差異性的角度來看。在技術層面上,人工意識的發(fā)展可能會成為人工智能領域的游戲規(guī)則改變者,例如賦予人工智能意圖性和“心智理論”的能力,以及預測其自身“行為”后果的能力。在社會和倫理層面上,尤其是最后一點,可以說有助于人工智能更好地向人類告知其對社會潛在的負面影響,并幫助避免這些影響,同時促進積極影響。當然,從消極的一面來看,機器中的意圖性未必比人類的意圖性更有利于人類利益,因為人類的意圖性也未曾特別有利于外群體個體、其他物種,甚至整個地球的利益。這確實是一個值得深入分析的討論,但超出了本文的目標范圍。

接下來,我們將總結與本討論特別相關的人類大腦的進化、結構和功能特性(有關近期概述,參見(Barron et al., 2023))。在此基礎上,我們將闡述大腦可能為當前人工智能研究帶來的啟發(fā),以推動人工意識系統(tǒng)的發(fā)展。

最后,關于開發(fā)人工意識的可設想性和可行性,我們將區(qū)分以下幾點:

(a) 人類意識的可復制性(我們認為這是不可能的,至少在當前人工智能發(fā)展的狀態(tài)下如此,這一立場幾乎沒有爭議);

(b) 開發(fā)一種具有某些相似性但仍與人類意識截然不同的人工意識處理的可能性(我們原則上不排除這種可能性,但由于概念和實證原因,認為其實現難度較大)。

最終,本文從選擇性地審視腦科學數據出發(fā),旨在提出一種不同于當今主流方法的人工智能意識研究路徑。這種方法可以被歸類為基于理論的方法,因為它并非依賴實驗數據,而是基于先驗科學理論的選定組成部分,然后將其應用于人工智能系統(tǒng)(Butlin et al., 2023)。相反,我們的方法是從經驗上確立的、直接與人類意識相關的大腦機制和過程出發(fā),從中推導出硬件構建模塊或算法,這些模塊或算法可能是相關甚至必要的(即使不一定是充分的),以推動人工意識處理的發(fā)展。

2. 人工智能在理解大腦方面的啟發(fā)程度與方式

2.1 計算模型

前蘇格拉底時期的希臘哲學家已經指出,任何對現實的描述都是由人類(我們的大腦)通過模型構建的,而這些模型必然受到物理限制(Changeux & Connes, 1995)。這也是邏輯上的限制。正如康德所言,我們所有的經驗都不可避免地依賴于我們自身有限的視角,而這些視角是我們永遠無法超越的。這意味著,從某種意義上說,我們是自己大腦的“囚徒”(Evers, 2009)。換句話說,由于我們的有限性以及大腦生成模型時受到的物理約束,我們在認識論上是受限的。因此,包括基于計算模型的人工智能在內的任何數學建模,都無法提供對現實(無論是物理現實還是生物現實)的“詳盡”描述。問題在于,假設像意識處理這樣的大腦功能/特性可以在不同的物理結構(無論是生物的還是人工的,即功能主義)中以完全相同的方式實現,這種模型在多大程度上能夠部分或完全描述或模擬大腦(例如,生成關于人類意識的可測試假設,如全局神經工作空間理論及其實驗驗證(Mashour et al., 2020b)),盡管目前所有生物學的大腦模型都只是對神經科學數據及其實際生物復雜性的過度簡化(Chirimuuta, 2024)。但這并不否認,即使在細節(jié)數量有限的情況下,大腦模型仍然可能是有用且適當的,這取決于所建模的大腦的具體方面以及相關描述層次。理論上講,例如,并非所有低層次的細節(jié)都是必要的,以便重現、預測或模擬某些高層次屬性,因此系統(tǒng)的高層次描述可能提供更相關且更充分的信息(Hoel, 2017; Rosas et al., 2020)。然而,如果目標是對整個大腦進行全面描述甚至模擬,那么任何計算模型都將不足以實現這一目標(Farisco et al., 2018)。

一些功能主義哲學家否認低層次神經組織對意識處理模擬的相關性(Butlin et al., 2023)。最近,彼得·戈弗雷-史密斯(Peter Godfrey-Smith)提出,兩個系統(tǒng)的功能相似性是一個程度問題(即,它取決于需要以粗粒度或細粒度方式理解系統(tǒng)的程度)(Godfrey-Smith, 2023)。關鍵點在于,復制像意識處理這樣的實體所需的相似性程度是什么?!岸嘀乜蓪崿F性”是指相同的認知能力可以通過具有不同物理架構的系統(tǒng)表現出來(Cao, 2022)。這一觀點受到了質疑。例如,繼內德·布洛克(Ned Block, 1997)之后,羅莎·曹(Rosa Cao)最近提出,嚴格的功能主義對底層物理結構施加了相當嚴格的限制,而不是最終允許多重可實現性。事實上,復雜的整合功能(如意識)比可以分解為簡單獨立功能的功能需要更多的約束條件,包括在細粒度層面上的約束(Cao, 2022)。

其他關于意識的理論對功能主義和多重可實現性持某種模糊的批判立場。例如,整合信息理論(IIT)(Albantakis et al., 2023)就是一個例子。IIT將意識處理與“整合信息”聯系起來(即,一個元素復合體生成的信息量,超出其各部分生成的信息之和)。內在信息被定義為在一個系統(tǒng)內部產生差異的因素。意識處理最終等同于內在信息:一個系統(tǒng)如果有超出其組成部分的信息生成能力,并且獨立于外部觀察者或解釋者,則該系統(tǒng)是有意識的。這就是為什么根據IIT,“大腦的數字模擬不可能是有意識的”,無論是在原則上還是實踐中都不可能。另一方面,一個用硅制成的神經形態(tài)計算機可能有意識,因為它可以由本質上存在的類似神經元的元素組成,并且具有與我們類似的因果結構(即,因果效應庫)(Tononi, 2015)。

因此,IIT反對功能主義,主張在埃德爾曼(Edelman, 1992; Tononi & Edelman, 1998)的精神下,僅關注功能而忽視物理結構無法解釋意識(Tononi, 2015)。特別是,回傳過程對于解釋意識至關重要:只有具備反饋環(huán)路的系統(tǒng)才能整合信息,而前饋系統(tǒng)則無法成為有意識的。因此,IIT不是功能主義的,因為它強調了信息生成和整合(即意識處理)所需的物理組件的關鍵作用。此外,根據IIT,一個功能類似于有意識人類的系統(tǒng),只有在其使用與人類相同的架構(即回傳架構)時才是有意識的。盡管IIT并非功能主義,但它最終承認在不同系統(tǒng)中復制意識的可能性。

2.2 人工神經網絡

從人工智能的早期階段開始,皮茨(Pitts)和麥克洛克(McCulloch)就提出了理想化人工神經元網絡的概念(McCulloch & Pitts, 1943)。連接主義計劃隨后受到馬文·明斯基(Marvin Minsky)開創(chuàng)性批評的影響(Minsky & Papert, 2017),之后逐漸回歸,并在最近迎來了人工神經網絡(ANNs)的使用和流行爆炸式增長(LeCun et al., 2015)。數十年的計算機研究在此基礎上發(fā)展,從簡化的架構到復雜的架構,從單層到多層人工神經元——從感知器到深度學習(LeCun et al., 2015),再到大型語言模型(LMMs)中數十億參數的規(guī)模(例如ChatGPT)。不僅是符號主義方法(“傳統(tǒng)的老式人工智能”或GOFAI,包括紐厄爾和西蒙創(chuàng)建的“邏輯理論家”),這種方法在人工智能研究的初期占主導地位,旨在以高層次功能方式復制智能的邏輯方面,而忽略了底層的大腦機制;最終,即使包含對大腦的某些參考,人工神經網絡計劃也無法完全解釋大腦架構的復雜性(Moulin-Frier et al., 2016)。

事實上,人工神經網絡中提到的“神經元”概念(即模擬生物神經元的數學函數)遠比其生物對應物簡單。例如,皮質錐體神經元的基底樹突和頂樹突區(qū)域分別連接到前饋和反饋信息處理(Aru et al., 2020)。這種生物神經元固有的復雜性部分體現在大多數現代人工神經網絡中,盡管用于人工智能應用的結構化神經元仍然是一個活躍的研究領域(Haider et al., 2021; Max et al., 2023; Senn et al., 2023)。大腦的其他特性,例如GABA能中間神經元的作用、乙酰膽堿和多巴胺等神經遞質的調節(jié)作用(Changeux & Lou, 2011),或者錐體細胞具有兩組功能上不同的輸入的能力(一組是關于神經元傳遞信息的內容,另一組可以在其他神經元傳遞的信息背景下選擇性地放大該傳輸)(Phillips, 2023),都被轉化為大規(guī)模腦模型中的功能模式(Eliasmith et al., 2012; Humphries et al., 2012)。正如上文提到的多重可實現性論點,問題在于這種功能模擬是否捕捉到了世界中的正確元素、過程和屬性,從而對目標對象(例如大腦)提供一個經驗上充分的描述,并在此基礎上具備與之相同的屬性(例如人類特征的神經基礎的相同因果效應,如意識處理)。換句話說,問題是能否在計算系統(tǒng)中重現現實世界對象(如大腦)的特征,包括基于數字電子原理構建的系統(tǒng),這些原理不同于大腦的模擬生物原理。

人工智能的最新發(fā)展(例如ChatGPT、Sora、Dall-E、Stable Diffusion)進一步說明了這種基本上基于算法的方法可以取得多大的成功,盡管關于其局限性的討論仍在繼續(xù)(Mitchell, 2023; Mitchell & Krakauer, 2023; Shanahan, 2024; Shanahan et al., 2021)。同樣,多年來,大量刻意排除對人類大腦任何參考的認知過程的計算“功能主義”描述被生產出來。這再次聯系到認知過程的多重可實現性問題:是否可以通過完全不同的生物、認知或計算機制實現相同的結果?(Melis & Raihani, 2023)。我們面對的是類比還是同源?挑戰(zhàn)在于,迄今為止在許多應用中取得成功的基于形式算法的計算方法,特別是所謂的神經形態(tài)硬件(Petrovici et al., 2014; Poo, 2018),是否足以接近類似人類的意識處理、一種替代形式的意識處理,或者最終根本無法產生意識(Kleiner, 2024)。

組織的多層嵌套并行性

最常見的計算機硬件由微處理器組成,這些微處理器基于半導體晶體管(包括氧化物基憶阻器、自旋電子存儲器和閾值開關)或神經形態(tài)基板(Billaudelle et al., 2020; Pfeil et al., 2013)制造,并集成到腦電路芯片中。這些硬件的基本物理組件由少量化學元素構成,計算速度非常高,遠高于大腦(見下文),盡管系統(tǒng)中兩個邏輯組件之間的信息傳遞需要經過編碼、刷新和解碼的多個階段,而不僅僅是電信號的速度(在標準電路板中約為光速的一半)。相比之下,大腦由多個嵌套層次的組織構成,其化學基本成分高度多樣,遠比任何計算機硬件中的成分更為復雜。確實,像神經形態(tài)系統(tǒng)這樣的計算模型可能被設計為考慮大腦組織的多層嵌套結構(Boybat et al., 2018; Sandved-Smith et al., 2021; Wang et al., 2021),但事實仍然是,它們的主要結果是對大腦功能的有限模擬,而這些計算模型無法解釋人腦的生化多樣性及其藥理學特性,包括可能影響意識狀態(tài)和意識處理的疾病(Raiteri, 2006)。事實上,大腦的高度生化多樣性可能在實現和調節(jié)意識處理方面發(fā)揮了作用(例如,通過精神藥物)。這種大腦生化多樣性在意識處理中的潛在作用應進一步探索,以便最終識別相關的架構和功能原則,將其轉化為有意識的人工智能系統(tǒng)的開發(fā)。

在真實的大腦中,分子水平及其約束條件往往未被充分認識,但起著關鍵作用。蛋白質是關鍵組成部分。這些大分子由氨基酸鏈組成,以高度復雜的組織方式折疊,能夠為包括代謝物、神經遞質、脂類和DNA在內的多種配體創(chuàng)建特定的結合位點。其中包含催化/降解細胞代謝關鍵反應的酶、細胞骨架和運動元件、轉錄因子等DNA結合蛋白、離子通道,以及最重要的神經遞質受體和與之相互作用的許多藥理學試劑。地球上所有生物中不同蛋白質的數量估計為。在人類大腦中,涉及認知軌跡的蛋白質數量為3.7103–3.933(Wingo et al., 2019),占總基因數(約20,000個)的重要部分。生物體內的蛋白質組分具有根本的異質性,這對大腦代謝和調控做出了貢獻。這同樣適用于意識狀態(tài)及其多樣性的控制,如通過睡眠和覺醒的全局化學調節(jié)或導致意識改變狀態(tài)的多種藥物的多樣性來評估(Jékely, 2021)。在所有情況下,調節(jié)最終發(fā)生在蛋白質層面。因此,在人類大腦中實現意識處理需要一個豐富且專用的生化環(huán)境,而當前試圖生成人工意識處理的AI系統(tǒng)普遍缺乏這一環(huán)境:計算機沒有藥理學,也沒有神經精神病學疾病。數據表明,分子組分在理解生命及生物意識處理中的重要性,這一點正日益被神經科學和哲學領域所認識(Aru et al., 2023; Godfrey-Smith, 2023; Seth, 2021; 2024; Thompson, 2018)。事實上,原則上,藥理因素對人類意識的關鍵作用并不排斥人工智能系統(tǒng)可能實現非人類形式的替代意識(Arsiwalla et al., 2023)。我們提到上述分子和藥理學條件的目的是識別當前AI系統(tǒng)所缺乏的因素,這些因素可以作為推動人工意識發(fā)展的靈感來源。

另一個與生物大腦和計算機不同物理架構相關并目前使它們產生差異的因素是信息處理的速度。如前所述,大腦的信息處理速度低于聲速,而計算機的工作速度接近光速。這在計算機和大腦之間造成了信息傳播速度的不可逾越的差異。神經沖動的傳導速度可達120米/秒(取決于軸突的直徑),這在很大程度上是由于某些髓鞘化軸突中離子通道的變構轉變所致。但突觸施加了額外的限制,導致毫秒級的延遲,包括神經遞質的局部擴散和受體激活過程的變構轉變(Burke et al., 2024)。由于這些連續(xù)延遲的累積,心理時間尺度通常在100毫秒左右(50–200毫秒)(Grondin, 2001)。最后,外圍感覺信號到達意識的時間延遲可能達到約300毫秒(Dehaene & Changeux, 2011)。簡而言之,標準計算機處理信息的速度比人類大腦快多達8個數量級。對于高度標準化的任務(如下棋),預計計算機效率更高。這部分歸因于不同的計算策略,計算機能夠并行測試數百萬種可能性,而人類大腦在心理時間尺度內只能測試少數幾種。因此,計算機能夠處理的數據量巨大,甚至超出了人類一生所能處理的范圍。

此外,盡管通過神經形態(tài)系統(tǒng)取得了一些顯著改進,包括每單位能耗的計算能力提升(Cramer et al., 2022; Esser et al., 2016; Goltz et al., 2021; Park et al., 2019),但人類大腦消耗的能量仍比標準計算機少幾個數量級,尤其在大規(guī)模模型(如GPT-4)的情況下更是如此。大腦不僅更節(jié)能,而且樣本效率更高:深度學習模型被認為在樣本效率上不如人類學習,因為它們需要大量訓練數據才能在任務中達到人類水平的表現(Botvinick et al., 2019; Botvinick et al., 2020; Waldrop, 2019)。

因此,人工智能在模擬大腦過程方面的非凡成功主要歸因于日益復雜的算法和計算機程序的處理速度。這種巨大的處理速度差異可能被解釋為反對人工意識的論據(Pennartz,2024):由于人工智能比人腦處理更多數據且速度更快,可能并行處理數據對于人工智能完成那些在人類中需要整合(即有意識)過程的任務已經足夠。事實上,有意識處理的一個關鍵特征是不同神經元群體所處理信息的整合,最終形成一個多模態(tài)的統(tǒng)一體驗。這種整合可以從根本上定義為一種由“點燃”活動模式介導的表征廣播,即有序的神經活動模式(Mashour等,2020b)。從進化的角度來看,由于生物內在限制決定了感官模態(tài)的數量和復雜性,以及認知與控制系統(tǒng)運作的時間尺度,這種整合和廣播活動服務于處理復雜信息的需求,即由多個元素組成、無法通過大腦并行處理的信息。在人工智能的情況下,其處理復雜信息的能力產生的整合與廣播并不與人腦處于相同水平或以相同方式進行。實際上,現代人工智能系統(tǒng)高度模塊化,并基于表征的廣播,但這些模塊的特性及其整個AI系統(tǒng)并行計算能力的限制與人腦的特性顯著不同。

這一點可以通過質量(即模塊能夠執(zhí)行的操作類型)和數量(即模塊能夠處理的數據量)來說明。從定性的角度來看,構成AI系統(tǒng)的模塊多樣性可能體現在它們執(zhí)行的具體任務上,這可能接近于大腦可訪問的感官模態(tài)的多樣性,而這些模塊無法依賴賦予處理信息及其表征的不同情感價值,就像人腦能做到的那樣。這就是為什么,例如,深度卷積網絡最終只是“缺乏經驗內容、想象力和環(huán)境整體感知的抽象概念集合”(Pennartz,2024)。因此,至少到目前為止,相比于人腦,AI模塊在性質上有所不同,因為它們無法賦予信息以體驗價值。使用上述對訪問意識和現象意識的區(qū)別,模塊化的人工智能系統(tǒng)可能達到在不同模塊之間廣播信息的能力(即它們可能接近訪問意識),但目前看來它們似乎無法復制現象意識處理或主觀體驗。Dehaene、Lau和Kouider提出了類似的解釋(Dehaene等,2017)。他們得出結論認為,當前的人工智能系統(tǒng)可能具備全局信息可用性(即選擇、訪問和報告信息的能力),但缺乏更高層次的元認知能力(即自我監(jiān)控和信心評估的能力)(Lou等,2016)。

這種解釋與人工智能中注意力和訪問意識的實現及(當前)工程設計現象意識的不可能性之間的區(qū)別相一致。同樣,Montemayor(2023)指出,現有人工智能系統(tǒng)僅限于滿足認知需求的表征價值,而當前人工智能沒有道德和審美需求的體驗,這些需求基于現象意識和主觀意識的內在價值。

從定量的角度來看,人工智能系統(tǒng)的存儲能力和計算能力遠超人腦,以至于它最終能夠在完全無意識的層面上執(zhí)行在人類中需要有意識努力才能完成的相同任務。事實上,有意識處理可以被視為一種進化策略,用于增強具有有限記憶存儲和數據處理能力的生物系統(tǒng)的生存能力。

總之,不同的質量和數量限制導致了不同的操作(有意識與無意識)。有趣的是,當對一個人工模型應用“正確類型的限制”時,某些屬性可能會作為結果發(fā)展出來(Ali等,2022)??赡苡幸庾R處理作為一種必要性是從人腦受限的計算能力中衍生出來的。

一個額外的問題是,是什么仍然使大腦在心理時間尺度上直至有意識處理表現出高性能。答案主要在于硬件架構,而這反過來又可能影響生物大腦能夠進行的計算類型。在大腦中,神經元及其神經突以及它們復雜的連接性遠比理想化的人工神經元復雜得多。生物神經元起源于確定的超分子組裝體,這些組裝體創(chuàng)造了重要的化學復雜性和細胞類型的多樣性(可能多達上千種),神經元類型也因形狀、軸突-樹突分支和它們建立的連接而不同。一個重要的化學差異是它們合成和釋放的神經遞質(多達數百種)(Jékely,2021)。

根據它們釋放的神經遞質,可以區(qū)分出兩類主要的神經元(即興奮性與抑制性)。要通過簡單的有意識任務,比如前面提到的追蹤與延遲條件反射,需要多個疊加的組織層級,而且興奮性和抑制性神經元的貢獻似乎都是必要的(Grover等,2022;Volzhenin等,2022)。確實,在深度網絡的情況下,權重矩陣包含盡可能多的負(抑制性)條目和正(興奮性)條目,并且存在包括興奮性和抑制性神經元的神經生物學上合理的反向傳播算法用于深度神經網絡(Guerguiev等,2017;Lillicrap等,2020;Scellier & Bengio,2017;Whittington & Bogacz,2017),但是,正如上面提到的,生物神經元類型的多樣性如此之大,以至于我們尚未完全理解它,所以這些計算算法可能最終會遺漏大腦中對意識處理至關重要的架構和功能細節(jié)。

抑制性神經元和興奮性神經元構成了基本的神經網絡層級,而這些網絡本身又構建了更高層次的嵌套神經元網絡,以此類推。這種復雜的連接組學關系可能對認知功能甚至意識的產生有所貢獻。例如,一種基于樹突整合自下而上和自上而下數據流的細胞意識理論被提出(Aru等,2020),這些數據流起源于丘腦-皮層神經回路。即使存在例外(特別是在使用皮層微電路的神經形態(tài)硬件中,如Haider等,2021;Max等,2023;Senn等,2023),但這種硬件復雜性在大多數最精密的超級計算機中通常是缺失的。此外,像大型語言模型(LLMs)這樣的系統(tǒng)確實表現出一些新興能力,這些能力可能源自其學習權重中存在的新興結構。事實上,在架構層面,它們被組織為大量層級,這潛在地允許某種組織形式(即分層、嵌套和多層次),而在大腦中,這些組織形式被認為對意識處理起著至關重要的作用。因此,我們原則上不能排除大型人工智能系統(tǒng)有可能發(fā)展出某些形式的意識處理能力,其特性由AI系統(tǒng)的結構和功能組織的具體組成部分所塑造。

總之,大腦的分層、嵌套和多層次組織表明了一些當前人工智能僅部分模擬的架構和功能特征,我們認為這些特征應進一步闡明并加以工程化,以推動向開發(fā)有意識的人工智能邁進。這些特征包括大規(guī)模的生化和神經元多樣性(例如,興奮性與抑制性神經元、連接組學關系、回路、丘腦-皮層環(huán)路)以及層級之間的各種自下而上/自上而下的調節(jié)機制。除此之外,這些組織特征限制了大腦中信息處理的速度,比人工智能慢幾個數量級:這種差異最終可能使得人工智能在執(zhí)行那些對人類而言需要意識努力的任務時,并不需要依賴意識處理。

4. 進化:從大腦架構到文化

4.1. 大腦的遺傳基礎與表觀遺傳發(fā)展

人類制造的計算機由預先連接的組件串聯而成,這些組件被剛性地組合成具有相同硬件的、基本時間不變的機器。另一方面,大腦的“硬件”是在達爾文進化過程中從海綿逐步演化到人類大腦的,經歷了多步選擇,導致其架構和行為能力的復雜性逐漸增加(Kelty-Stephen等,2022)。這種選擇發(fā)生在本質上不同的環(huán)境條件下,包括物理、社會以及可能的文化因素。因此,新的層級在舊的層級之上嵌套形成,而無需理性的(即可預測的)關系。大腦的架構因此概括了其進化歷史中的多重事件,它并非像人工智能系統(tǒng)那樣是理性設計的結果,而是可以被視為人類導向文化進化的最終產物(可能包括變異和選擇過程)(Mesoudi等,2013;Solé等,2013;Valverde,2016)。

此外,基因組水平上的大腦進化結果表明,如果每個新獲得的能力都建立在先前能力的基礎之上,那么在整個進化過程中可能會發(fā)生強烈的基因組保守性。例如,果蠅的基因組與人類基因組有60%的同源性,約75%的人類疾病相關基因在果蠅中有同源基因(Ugur等,2016)。在此背景下,人類大腦的形成基于少數遺傳事件(大多尚未完全識別),并未涉及基因組的劇烈重組。然而,這些變化足以使遠距離丘腦皮層區(qū)域之間的信息廣播(即全局神經工作空間(GNW))得以出現,并使意識獲得了成人人類大腦的具體特征(Changeux等,2021;Hublin & Changeux,2022)。

為了擺脫限制達爾文進化的保守遺傳糾纏(在古生物學時間尺度上為數百萬年),一種更快(天、小時級別)的非遺傳進化形式得以發(fā)展。這種進化發(fā)生在出生后的發(fā)展階段(人類約為25年),在此期間約一半的突觸連接總數形成并塑造了成人人類大腦的連接組學“硬件”。CCD理論(Changeux等,1973)正式解釋了這種表觀遺傳進化,該理論依賴于發(fā)育中的神經元間連接的可變性和選擇-消除過程,這些過程形式上類似于通過變異-選擇進行的達爾文式進化(Changeux & Danchin,1976;Edelman & Mountcastle,1978;Kasthuri & Lichtman,2003)。大腦的發(fā)育——從新生兒到成人——以多步驟嵌套分層的形式進行,由一系列突觸生長和選擇波次驅動。這成為了一種機制,用于存儲在出生后發(fā)展中大腦與其物理、社會和文化環(huán)境互動所產生的巨量長期記憶。該模型解釋了人類大腦的一個具有巨大社會意義的特性(Evers,2015),但這一特性在神經科學中卻被嚴重低估:成人大腦連接性的表觀遺傳變異性。根據CCD變異性定理,“不同的學習輸入可能產生不同的連接組織和神經元功能能力,但具有相同的行為能力”。因此,神經元連接代碼表現出“退化性”(Edelman & Gally,2001;Edelman & Mountcastle,1978;Tononi等,1999),即不同的代碼詞(連接模式)可能攜帶相同的意義(功能)。這種變異性與發(fā)育過程中遇到的多樣化經驗的變異性疊加在基因組變異性之上。最終,每個人的歷史都被整合到大腦的硬件中。這種本質的變異性甚至存在于同基因個體的大腦之間,與工業(yè)計算機硬件的可重復性形成了鮮明對比,盡管在特定任務訓練中或部分模擬神經形態(tài)計算機中也可能存在有限的變異性。

人類出生后發(fā)展期的延長在突觸選擇理論框架下具有重要影響,因為它導致了個體經驗和文化的獲取與傳播在社會環(huán)境中發(fā)生。閱讀和寫作能力的獲取可以被視為大腦硬件中表觀遺傳發(fā)展的“文化回路”的典型例子。對文盲與識字者的比較行為和腦成像研究揭示了大腦功能連接組學的顯著差異(Castro-Caldas等,1998;Dehaene等,2010)。文化能力在每一代中從成人到兒童自發(fā)且必然地學習,并通過表觀遺傳方式代代相傳,甚至從母親子宮內開始,直到成年階段。這種文化的自發(fā)生成目前在計算機中尚無意義,盡管大型語言模型(LLMs)可能實現類似的動態(tài)(https://arxiv.org/pdf/2402.11271.pdf)。事實上,AI(如LLMs)可能在大量數據上進行預訓練,這可以被解釋為一種文化獲取形式。然而,這與人類的文化獲取存在關鍵區(qū)別,后者不能被簡化為被動的數據接收,而是個體之間以及世代之間對所接收到的數據進行創(chuàng)造性再加工的過程。這些動態(tài)取決于大腦并非信息的被動存儲庫:同樣的信息可能對不同大腦或同一大腦在不同時間產生不同的影響,因為感知受到大腦自發(fā)活動的調節(jié),這種活動不僅僅是系統(tǒng)內部運作中的噪聲(見下文)。作為文化進化的重大后果之一,與象征體驗和情感標記相關的技能和實踐(如理性思維(科學)、行為準則(倫理)和共同感受(藝術))在大腦連接性中被穩(wěn)定地表觀遺傳內化,并成為某些群體獨有的特性。文化差異在不同人群之間產生,并在人類物種的歷史中產生了重要影響。它們?yōu)椴嫉隙蛩Q的主體“習性”做出了貢獻:內化的感知、行動和評估的常規(guī)模式,往往持續(xù)一生(Changeux,2006)。這種通過具身程序動力學逐步習得的傳感器運動序列模式的規(guī)律性,在符號系統(tǒng)和LLMs中缺乏,但在當前的具身AI/機器人研究中正在探索(Gupta等,2021)。此外,設計用于控制機器人代理的網絡已被設計為遵循類似“突觸”生長、變異和選擇的進化過程(Miglino等,1995;Nolfi等,1994)。更重要的是,超參數調整在現代AI中已成為標準,包括改變網絡結構、層數及其性質、反饋回路、稀疏性、激活函數、感受野等。近年來,進化方法明確成為現代建模研究的一部分(Jordan等,2021)。

總之,盡管在許多AI技術中實施進化方法方面取得了近期進展(如上所述),當今AI仍然缺乏與人類大腦嚴格同源的進化發(fā)展。

4.2. 人工智能與進化:對人工意識的影響

人類類似的進化過程的缺失是否是人工智能實現類似人類的意識處理的一個障礙?盡管人工智能缺乏嚴格的系統(tǒng)發(fā)生學進化(因為它是由人類制造的),但它可能具有個體發(fā)生學的發(fā)展(例如,通過無監(jiān)督學習),這在原則上可以使人工智能獲得開發(fā)者最初未編程的能力。例如,深度強化學習系統(tǒng)便是如此(Silver等,2018;Vinyals等,2019)。

我們能否說這種形式的人工智能能夠從經驗中學習,并因此發(fā)展出一種人工形式的“習性”、“氣質”和“性格”?事實上,深度強化學習系統(tǒng)包括來自處理數據的各種反饋和錯誤信號,這些信號結合短期和長期記憶能力,可以被解釋為一種經驗形式。

那么表觀遺傳和文化進化呢?盡管最近有一些關于文化進化的計算研究表明,人工智能代理可以相互共享信息并學習執(zhí)行任務(arXiv:2206.05060)(Colas等,2022),但現階段人工智能大多缺乏與人類同源的表觀遺傳發(fā)展。由于人類的經驗和文化來源于表觀遺傳,因此可以基本推斷,人工智能(仍然)缺乏經驗與文化,至少沒有達到與人類相同種類和復雜程度的經驗與文化。

進化分析(Kanaev,2022)以及對人類新生兒發(fā)育數據的研究(Lagercrantz & Changeux,2009,2010)表明,人類的“意識處理”是逐步發(fā)展的(Changeux,2006,2017)。

(i) 最低層次的“最小意識”:簡單生物(如大鼠或小鼠)表現出的特征是能夠展示自發(fā)運動活動,并從視覺和聽覺體驗中創(chuàng)建表征,將其存儲在長期記憶中并加以使用,例如用于趨近或回避行為以及所謂的探索行為。根據Lagercrantz(2016)的說法,25-30周的早產胎兒已經達到類似于(盡管不完全相同)新生大鼠/小鼠的大腦成熟階段;他/她可以在感覺皮層中處理觸覺和疼痛刺激(Bartocci等,2006),感知疼痛,從而顯示出最小意識的跡象。

(ii) “遞歸意識”(Zelazo等,2004):存在于綠猴(可能還包括一些鳥類中),表現為對物體的功能性使用和原聲明式指向;這一層次的生物可能展示復雜的社交互動、模仿、社會參照和共同注意;它們有能力同時在記憶中保持多個心理表征,并能夠評估自我關系;它們在處理表征時表現出遞歸性的初級形式,但尚未達到相互理解的程度;沿此方向,新生兒表現出感官意識、表達情感的能力以及處理心理表征的能力(例如奶嘴的表征);他/她已經能夠區(qū)分自我和非自我的觸碰(Rochat,2003)。

(iii) 顯式的“自我意識”:在嬰兒兩歲末期發(fā)展起來,伴隨著工作記憶和情景記憶以及語言的一些基本方面;其特征是在鏡子測試中的自我識別,并能夠使用單一任意規(guī)則進行自我-他人區(qū)分(Lou等,2017;Posner & Rothbart,2007);某種程度上,黑猩猩可能達到這一水平(Boakes,1984)。

(iv) “反思意識”、心智理論和完整的意識體驗:具備第一人稱本體論和可報告性,在人類中完全發(fā)展,并在兒童3-5歲時逐漸形成。

在出生時,所有主要的長距離纖維束已經就位(Dubois等,2015),盡管仍然不成熟。在5個月、12個月和15個月大的嬰兒中記錄到了與成人GNW點燃同源的意識處理的電生理特征(Dehaene-Lambertz & Spelke,2015;Kouider等,2013)。

簡而言之,主觀體驗可以說來源于時間延展的表觀遺傳發(fā)展過程(即大腦連接組的變化,最終改變了大腦網絡中神經元的數量及其連接)。換句話說,意識是一個過程,它依賴于并受到有機體(尤其是其大腦)與環(huán)境之間(或多或少)時間延展的互動所塑造。

目前的人工智能只有有限形式的這種互動發(fā)展,這意味著信息的社會和情感意義及價值在人工智能中大多缺失或僅有限存在。事實上,人工智能無法體驗世界,也沒有心智理論(Pennartz,2024):數字人工智能以不同于人類的格式處理信息,這使得人工智能能夠訪問的世界與人類能夠訪問的世界顯著不同。有關模擬計算和人工智能的研究原則上可能使其發(fā)展出更類似人類的體驗,但結果仍處于初步階段。

此外,鑒于意識發(fā)展的這些不同可能階段,開發(fā)人工意識處理的嘗試應明確其目標的具體階段。

到目前為止,包括神經形態(tài)方法在內的各種人工智能預計不會表現出人類完全意識體驗的所有特征。然而,它們可能具備某些標志性特征,例如持續(xù)的工作記憶痕跡、全局整合和決策能力。它們可能達到我們所稱的“最小意識”水平,或者可能具備“遞歸意識”的某些特征,但目前看來,“自我意識”或“反思意識”似乎無法在人工系統(tǒng)中實現。

另一種可能性是,同一個人工意識假設系統(tǒng)可以被視為處于逐步發(fā)展的過程中。盡管這不是人工智能的主要趨勢,但艾倫·圖靈早在1950年就提出將發(fā)展視為創(chuàng)建和教導人工智能的一種范式,就像我們可以教導一個孩子一樣。

總之,當前的人工智能系統(tǒng),特別是模擬特定大腦計算模型的神經擬態(tài)機器人系統(tǒng),在從同一計算模型的功能組織中產生變異性方面受到限制,而這種變異性是達爾文生物進化和通過選擇與放大機制進行表觀遺傳發(fā)展的結果。此外,當前的人工智能系統(tǒng)缺乏大腦漫長的出生后發(fā)展過程,這一過程導致了來自物理、生物和社會文化環(huán)境的多層嵌套表觀遺傳突觸選擇(作為“印記”)。由于大腦特有的突觸選擇達爾文機制,不同的連接模式可能承載相同的功能,從而導致可塑性、個體差異和創(chuàng)造力。

這意味著,迄今為止,人工智能在類似人類大腦的進化和表觀遺傳發(fā)展方面的能力有限。僅憑這一點,我們不能從理論上排除深度強化學習系統(tǒng)有一天可能會以一種可以描述為與環(huán)境的表觀遺傳關系的方式對學習和經驗作出反應。然而,對于旨在提取意識處理潛在原則并將其復制到人工系統(tǒng)中的理論計算方法而言,這可能也是一個限制(Blum & Blum,2023)。

從這個角度來看,大型語言模型(LLMs)的局限性在于,它們目前缺乏人類通過身體介導的對世界的多維和多感官表征,因此它們本質上接觸到的知識是有限且扭曲的,最終不足以實現對世界的多模態(tài)(即有意識的)表征。機器人技術,包括最近與LLMs的結合(Zhang等,2023),以及神經形態(tài)人工智能,有望為AI提供一種具身形式,這在原則上可以實現人工的多模態(tài)體驗。例如,在具備自我監(jiān)控能力的機器人系統(tǒng)上已經取得了顯著成果,這種能力至少復制了人類自我意識的某些方面(Chella等,2008),特別是依賴于內心語言的能力(Chella等,2020;Pipitone & Chella,2021)。

然而,AI在其與世界互動中顯然缺乏任何情感投入的問題依然存在。鑒于由具身特性(如情緒)所介導的人類有機體的評估能力在意識體驗中的重要作用,這種缺乏可能成為通往有意識AI道路上需要進一步研究并克服的潛在障礙。

總之,當前AI僅部分實現、而當前關于意識AI的研究應嘗試更好模擬的大腦特征包括:對世界的具身化感官運動體驗、大腦的自發(fā)活動(這不僅僅是像當前AI系統(tǒng)中的簡單噪聲)、自創(chuàng)生(作為不斷自我實現的能力)以及基于情緒的獎勵系統(tǒng)。

6. 大腦中的有意識與無意識處理,或“思維實體”與“物質實體”

上述提到的自發(fā)活動對于區(qū)分有意識和無意識處理具有重要意義,這一區(qū)分早在笛卡爾通過提出“思維實體”(res cogitans)與“物質實體”(res extensa)時便已暗示。這兩個概念在非二元論背景下被明確表述,體現在使用相同術語“res”上(Changeux & Ricoeur,1998)。用現代術語來說,這意味著有意識表征在“物理”或生理層面上與無意識表征不同。為了區(qū)分兩者,引入了掩蔽任務。當一個表征——例如,在視覺通路中——從V1區(qū)域傳遞到顳葉皮層時,無意識表征會被捕獲,直到刺激呈現后約200至300毫秒時出現活動的突然發(fā)散。當刺激變得有意識時,會出現額外活動的強烈激增并廣泛傳播,尤其是在到達前額葉和頂葉皮層時(成為“現象性”的)。這種非線性發(fā)散被稱為“點燃”(Dehaene & Changeux,2005),并且無論使用何種刺激模態(tài)或操縱意識的范式都會發(fā)生(Del Cul等,2009;Klatzmann等,2023;Mashour等,2020a)。即使在沒有外部刺激的情況下,也可以記錄到自發(fā)的點燃(Koukouli等,2016;Moutard等,2015)。

在全局工作空間架構中的首次點燃模擬(Dehaene & Changeux,2005;Dehaene等,2003)已經強調了長距離遞歸連接和自上而下連接在維持長時間持續(xù)點燃中的關鍵作用:當感官刺激被有意識地感知時,會出現更穩(wěn)定的活動(Schurger等,2015)。最近,Klatzmann等人(2023)提出,AMPA受體介導的興奮性電流的快速起始和終止可能幫助感覺區(qū)域快速對外部刺激的變化作出反應(Self等,2012;Yang等,2018),但刺激之后,NMDA受體的緩慢時間常數有助于在前額葉皮層和GNW中維持特定于刺激的活動(Wang,1999;Wang等,2013)。這進一步說明了大腦生化多樣性在有意識處理中的相關性(見上文)。

當處于有意識狀態(tài)時,“表征”表現出獨特的特性。例如,它們具有的聯想特性使它們能夠組織成鏈條,并構建出人類、猴子甚至可能計算機中不存在的推理形式。經典解釋是,猴子的工作記憶非常淺(精確為1-2,黑猩猩為2.1),而人類的工作記憶則遠高于此(7±2)。更重要的是,有意識表征具有獨特的神經組織方式,使其能夠建立“物理鏈接”形成一個序列,該序列能夠整合每個組成部分的意義并產生全局意義。在此基礎上(盡管仍大部分未被探索),應該能夠構建句子、提出推理、解釋語言生成性(即生成從未說過的新句子并理解從未聽過的新句子的能力),以及遞歸性(即將一個成分嵌套到同類型另一個成分內部并構建一棵樹、一個語言元素或可重復使用的語法結構的能力)。在所有這些例子中,皮層和非皮層神經元都會通過獎勵系統(tǒng)的廣泛選擇參與其中。

最近有人聲稱大型語言模型(LLMs)具備這些能力,特別是句法語言生成性。這取決于語言生成和理解的概念如何定義。LLMs可以基于統(tǒng)計模式生成新詞組合,并識別這些詞之間的聯系。這種語言生成和理解是句法性的,獨立于語義(即可能通過選擇性獎勵賦予意義),而這正是人類語言生成和理解的特點(Bennett,2023;Marcus & Davis,2019)。即使LLMs能夠完全模擬語義連貫的人類生成語言,它們也采用與人腦不同的策略,且不包括通常意義上的意義理解(Wolfram,2023)。

同樣的情況可能適用于推理和創(chuàng)造力。盡管這些特性的細節(jié)在人腦中仍有待澄清,但數據一致表明內在和外在獎勵在選擇和穩(wěn)定創(chuàng)造性任務(如藝術創(chuàng)作)相關的神經元配置中起著核心作用(Changeux,2019)。此外,“退化性”原則(即許多神經元組合可能導致相同的功能結果)是人腦可塑性和創(chuàng)造力的基礎,而在人工智能中這一點似乎顯著受限,盡管神經網絡剪枝和神經形態(tài)硬件取得了一些相關成果。

總之,可以幫助當代開發(fā)有意識AI系統(tǒng)的大腦特征包括:有意識與無意識表征之間的清晰區(qū)分(例如通過點燃現象劃分),以及由此產生的有意識表征的獨特聯想特性;大腦的語義能力,這體現在符號理解及互助能力上;有意識表征的獨特關聯特性,將其組織成有意義的序列,最終發(fā)展出推理和理性思維能力。

7. 人工智能意識與社會互動對理性思維和語言的挑戰(zhàn)

從進化和神經科學數據出發(fā),我們已在上文列舉了人工智能研究在嘗試推進人工意識開發(fā)時可能需要考慮的一系列特征。我們所概述的當前人工智能的一些局限性已被其他作者指出,例如具身性、情感和動機在機器意識中的作用,以及機器人體驗的問題(Chella & Manzotti,2009;Montemayor,2023),而其他一些問題則較少被探討。其中,個體在社會群體中互動的能力引發(fā)了許多人類特有的傾向,包括心智理論、文化體驗和倫理責任。

原則上,人工智能構造具有不同于生物系統(tǒng)的物理結構和功能組織(即使是可能有意識的生物系統(tǒng),例如人類與其他物種,包括果蠅(Grover等,2022)),這并不意味著人工智能系統(tǒng)無法或不能變得有意識。上述分析揭示了一些數據表明與人腦中有意識處理相關的因素,但這不足以得出這些因素是人類、其他生物系統(tǒng)或人工系統(tǒng)中有意識處理的必要條件。值得注意的是,人工形式意識的實際存在問題是重要的實證問題:我們需要可靠的指標來識別人工智能系統(tǒng)中的非生物意識處理(Bayne等,2024;Dung,2023;Pennartz等,2019)。然而,這一挑戰(zhàn)不僅是實證性的,也是概念性的:我們如何概念化一種非生物形式的有意識處理?我們通常用來指代意識的語言和概念類別可能并不合適(例如,它們過于擬人化和以人為中心),應該被替代。正如Pennartz等人(2019)所述,我們可以使用相同的術語并相應擴展其應用范圍,或者我們可以創(chuàng)造一個新術語來指代機器。這種選擇在認知層面上非常重要。事實上,“語言創(chuàng)新必須有充分的理由以避免概念膨脹。然而,如果我們過于受制于常用的傳統(tǒng)用法,就會阻礙新思想的發(fā)展。我們的語言需要進化,以便能夠表達新的思想、知識和規(guī)范體系?!保≒ennartz等,2019)

我們無意重新發(fā)明術語,而是希望推薦在將意識概念應用于人工智能時改進術語和概念的清晰度。這種需求可以被視為新技術發(fā)展導致概念適應更廣泛呼吁的一部分,正如概念工程中所表達的那樣(Hopster & Lohr,2023)。我們建議的另一個具體理由源于意識的多維性,這對任何試圖開發(fā)人工意識的努力都至關重要,即明確目標是哪一維度和/或哪種形式的意識。雖然將注意力和智能等其他心理術語擴展到非人類動物和人工智能系統(tǒng)可能比意識顯得不那么成問題,但在將任何心理術語應用于人工智能時,我們需要區(qū)分兩個語義維度:認識論維度(即該術語所指特征的本質是什么?)和功能維度(即該術語所指特征如何運作?其相關架構是什么?即結構與功能的適當組合)。雖然將第一個維度擴展到人工智能存在問題,但只要能夠在適當的規(guī)?;蚣毠?jié)水平上復制相關結構和功能,則第二個維度的擴展可能更為直接,如上文所述。無論如何,基于神經科學的語言和概念發(fā)展似乎是有道理的。

總之,在將意識歸因于人工智能時需要謹慎,特別是在進行這種歸因時改進概念的清晰度。這不僅僅是溝通的問題,還涉及思想發(fā)展的過程,因為語言在認識論上塑造思想(即我們能思考和知道什么)和規(guī)范性上塑造思想(即我們所發(fā)展的價值觀)。因此,這些問題為我們提出了需要做出的概念選擇,這些選擇既要在哲學上(就清晰度、簡潔性和邏輯一致性而言)也要在實證上(就科學依據、實驗驗證和解釋力而言)進行。

8. 結論

我們在此回顧了大腦的一些結構、進化和功能特征,這些特征在實現和/或調節(jié)人類意識方面發(fā)揮了重要作用(見表1)。這些特征可能有助于使人工意識成為可能。在此背景下,我們也指出了當前計算機硬件和人工智能模型的一些局限性,并建議改進這些方面以加速人工意識開發(fā)的研究(見表2)。

打開網易新聞 查看精彩圖片
打開網易新聞 查看精彩圖片

即使從理論上講,開發(fā)具有非類人形式意識的人工系統(tǒng)是可行的,我們認為,考慮到上述目前尚未完全轉化為人工智能的大腦特征,可能會加速和豐富有意識人工系統(tǒng)的發(fā)展。這并不意味著實際上可以開發(fā)出類人的有意識人工系統(tǒng)。事實上,要公平地模擬人類的意識處理過程仍然有很長的路要走,甚至可能永遠無法實現。鑒于這種不確定性,我們建議暫時不要對人類和人工系統(tǒng)使用相同的通用術語(即“意識”);應明確指出它們之間的關鍵差異;最后但同樣重要的是,必須非常清楚人工系統(tǒng)可能具備的意識維度、規(guī)模和水平。

https://www.sciencedirect.com/science/article/pii/S0893608024006385