人工智能已經(jīng)成為科學(xué)研究中的一大焦點議題,2024年諾貝爾物理學(xué)獎和化學(xué)獎的公布更是將關(guān)于人工智能的討論推向了高潮。如今,許多科學(xué)家紛紛稱贊人工智能成為改變科學(xué)的力量,有人提出,人工智能加速科研攻關(guān)的潛力使其成為“人類歷史上最具變革性的技術(shù)之一”。然而,這種變革對科學(xué)究竟意味著什么?盡管人工智能可幫助研究人員以更少的資金更快地完成更多工作,但它也引發(fā)了一系列新的擔(dān)憂。例如,若研究人員急于利用人工智能取得成果,則會讓科研成果較難獲取公眾的理解與信任。人工智能面臨安全性危機(jī)和代表性不足的問題,其是否能夠有效助力科學(xué)發(fā)展?未來,人工智能與科學(xué)研究之間的關(guān)系會呈現(xiàn)怎樣的發(fā)展軌跡?圍繞學(xué)術(shù)界和公眾關(guān)注的這些熱點話題,本報記者采訪了相關(guān)學(xué)者。

01

理性看待人工智能與科學(xué)研究的結(jié)合

人工智能在科學(xué)領(lǐng)域越來越具有吸引力的主要原因之一,是它能夠以更快的速度、更低的成本創(chuàng)造更多的產(chǎn)出。日本人工智能公司“Sakana AI”開發(fā)了一個名為“AI 科學(xué)家”的綜合系統(tǒng),旨在獲得“完全由人工智能驅(qū)動的科學(xué)發(fā)現(xiàn)”,該系統(tǒng)只需耗費(fèi)約15美元的成本便能生成一篇完整的研究論文。與此同時,人們不免產(chǎn)生疑問,我們真的能借助人工智能促進(jìn)科學(xué)發(fā)展嗎?

盡管人工智能已經(jīng)在多個研究領(lǐng)域被廣泛應(yīng)用,但澳大利亞國立大學(xué)負(fù)責(zé)任創(chuàng)新實驗室高級講師伊赫桑·納巴維(Ehsan Nabavi)認(rèn)為,人工智能至少會在三個方面使研究人員產(chǎn)生錯誤認(rèn)知。一是“解釋深度錯覺”。雖然人工智能模型擅長預(yù)測現(xiàn)象,但這并不意味著它能夠準(zhǔn)確地解釋相應(yīng)的現(xiàn)象。神經(jīng)科學(xué)研究已經(jīng)證實,為優(yōu)化預(yù)測過程而設(shè)計的人工智能模型可能導(dǎo)致研究人員對潛在神經(jīng)生物學(xué)機(jī)制產(chǎn)生誤導(dǎo)性結(jié)論。二是“探索廣度錯覺”。有些研究人員認(rèn)為,自己設(shè)計的人工智能模型可以涵蓋所有假設(shè)性數(shù)據(jù)集,事實上卻只包含了可用于人工智能測試的數(shù)據(jù)集。三是“客觀性錯覺”。還有一些研究人員認(rèn)為人工智能模型沒有偏見,但實際上,各種人工智能模型都不可避免地反映其訓(xùn)練數(shù)據(jù)中存在的偏見以及開發(fā)人員的意圖。

納巴維對本報記者表示,如今,科學(xué)領(lǐng)域充斥著由人工智能生成的內(nèi)容。人工智能在科學(xué)領(lǐng)域的興起正值公眾對科學(xué)和科學(xué)家仍有較高信任度之際,但我們不能將此視為理所當(dāng)然,因為信任關(guān)系是復(fù)雜而脆弱的。世界仍然面臨許多挑戰(zhàn),如氣候變化、生物多樣性減少和社會不公平等,應(yīng)對這些挑戰(zhàn)需要公共政策制定者運(yùn)用專家的判斷力。這種判斷力包括有意識地考慮具體情況,收集來自不同學(xué)科領(lǐng)域的意見和生活經(jīng)驗素材,并從當(dāng)?shù)匚幕c價值觀的角度進(jìn)行解讀。而人工智能模型目前還無法做到這一點。

國際科學(xué)理事會2024年發(fā)布的一份報告曾提到,研究人員只有認(rèn)識到研究對象的細(xì)微差別和不同背景才能產(chǎn)出讓公眾信服的成果。如果讓人工智能主導(dǎo)科學(xué)發(fā)展的未來,可能會破壞這種信任關(guān)系。一旦研究人員允許人工智能在科學(xué)研究中占據(jù)主導(dǎo)地位,可能會帶來一種“知識單一”的文化,即優(yōu)先考慮最適合人工智能介入的問題、方法和觀點等。這會使我們遠(yuǎn)離科學(xué)研究的本質(zhì)以及解決社會和環(huán)境問題時必需的細(xì)致入微的公共對話與推理。

02

建立人工智能使用規(guī)則

隨著21世紀(jì)的到來,一些人認(rèn)為,科學(xué)家需要制定一份新的社會契約,即將他們的知識和才華應(yīng)用于解決這個時代最緊迫的問題,從而推動社會走向一個更可持續(xù)的生物圈——生態(tài)健康、經(jīng)濟(jì)可行、社會公正的生物圈。人工智能的興起不僅為科學(xué)家提供了履行這一職責(zé)的契機(jī),也為他們的研究注入了更多的新活力。但重要的是,學(xué)術(shù)界首先需要明確一系列有關(guān)人工智能使用規(guī)則的事項。例如,在科學(xué)研究中使用人工智能是否屬于一種“外包”行為、這一行為是否損害公共資助的完整性,以及該如何處理這個問題,人工智能對環(huán)境有何影響,研究人員如何在將人工智能融入研究過程的同時,使其產(chǎn)出的成果與社會需求保持一致。

納巴維說,在沒有建立規(guī)則的前提下使用人工智能來改變科學(xué)研究,這種想法可能是本末倒置。讓人工智能決定研究的重點,忽視來自不同學(xué)科領(lǐng)域的聲音和意見,會導(dǎo)致研究結(jié)果與社會實際需求不匹配,造成資源分配不當(dāng)甚至資源浪費(fèi)。科學(xué)研究應(yīng)當(dāng)造福于整個社會,研究人員需要在研究與實踐中就人工智能使用規(guī)則展開真正的對話。現(xiàn)在是時候探討在科學(xué)研究中應(yīng)用人工智能會帶來哪些問題,并建立必要的指導(dǎo)方針和評估標(biāo)準(zhǔn),以負(fù)責(zé)任的態(tài)度激發(fā)人工智能潛力。

此外,人工智能安全問題也引發(fā)了人們的擔(dān)憂。人工智能安全的概念涉及研究、戰(zhàn)略、政策等多個方面,旨在確保這些系統(tǒng)可靠、符合人類價值觀且不會造成不必要的傷害。目前,學(xué)術(shù)界存在一種反思,即人工智能領(lǐng)域反映的大多是西方的認(rèn)知框架,主要形成的是以西方為中心的研究范式,且主要服務(wù)于高收入國家的技術(shù)機(jī)構(gòu)和利益相關(guān)者。這種系統(tǒng)性排斥不僅延續(xù)了現(xiàn)有的權(quán)力不對稱,還損害了真正有益的人工智能系統(tǒng)的發(fā)展。包括非洲、大洋洲、拉美和加勒比地區(qū)、中東、中亞、南亞、東南亞等地區(qū)在內(nèi),全球大部分地區(qū)在人工智能開發(fā)和人工智能系統(tǒng)中嵌入訓(xùn)練數(shù)據(jù)等方面,都面臨著代表性不足等問題。在這種情況下,人工智能與科學(xué)研究的結(jié)合,必然會讓公眾質(zhì)疑其研究結(jié)果是否偏離社會實際。

03

人機(jī)協(xié)作要求研究人員轉(zhuǎn)變角色

人工智能與科學(xué)研究的日益融合,加速了人機(jī)協(xié)作時代的到來,也推動研究人員的工作方式發(fā)生深刻變化。這種變化有助于提高學(xué)術(shù)生產(chǎn)力、擴(kuò)大研究規(guī)模,也給科學(xué)研究范式帶來了新局面。過去,研究人員主要依賴于自身的知識和分析能力。隨著新技術(shù)的出現(xiàn),研究過程中的學(xué)術(shù)分工正在被重新定義,促使人們對科學(xué)研究的性質(zhì)、過程以及研究人員角色的演變進(jìn)行批判性反思。

澳大利亞悉尼大學(xué)信息技術(shù)與組織教授凱·里默爾(Kai Riemer)對本報記者表示,這一轉(zhuǎn)變的核心包括人類要始終處于中心地位和承擔(dān)起全部責(zé)任等關(guān)鍵問題。由于人工智能可以產(chǎn)生新的假設(shè)和試驗策略,人類貢獻(xiàn)與機(jī)器貢獻(xiàn)之間的界限可能會變得模糊。鑒于人工智能的功能是輔助性的,還無法獨立提供能夠滿足學(xué)術(shù)界認(rèn)定要求的科學(xué)研究方法,我們必須對“研究人員身份”這一概念進(jìn)行重新界定。

里默爾提到,雖然人工智能具備強(qiáng)化數(shù)據(jù)分析和模型構(gòu)建的能力,但研究人員必須保留自身的知識產(chǎn)權(quán)和對整個科學(xué)研究項目的管理權(quán)。盡管學(xué)術(shù)界有部分學(xué)者呼吁應(yīng)充分挖掘人工智能作為協(xié)作工具的潛能,但人類必須肩負(fù)起維護(hù)科研誠信和學(xué)術(shù)嚴(yán)謹(jǐn)性并認(rèn)真監(jiān)督的責(zé)任。隨著身份的更新,研究人員也要持續(xù)提升自己對新技能的掌握水平,嘗試接受不同的觀點,這樣才能在人機(jī)協(xié)作時代表現(xiàn)出色,并不斷從人工智能中獲得有意義的見解。研究人員也需要始終對使用人工智能保持謹(jǐn)慎的態(tài)度。因為,盡管人工智能功能強(qiáng)大,但也可能存在缺陷導(dǎo)致偏見或不準(zhǔn)確現(xiàn)象的出現(xiàn),進(jìn)而破壞研究的完整性。研究人員不能將人工智能視為一種便捷的“認(rèn)知卸載”工具,而要時刻保持批判性思維,不斷通過交叉引用、進(jìn)行額外試驗或?qū)で笸幸庖妬頇z驗人工智能生成的結(jié)果。

隨著人工智能對科學(xué)研究格局的影響,高等教育機(jī)構(gòu)在促進(jìn)這一轉(zhuǎn)變過程中具有獨特的優(yōu)勢。人機(jī)協(xié)作的研究新范式要求高等教育機(jī)構(gòu)采取積極、主動、全面的方法培養(yǎng)新一代研究人員。高等教育機(jī)構(gòu)必須承擔(dān)使命,提高研究人員的認(rèn)知水平,培養(yǎng)研究人員的創(chuàng)新思維,鼓勵研究人員在新時代學(xué)習(xí)新技能。具體措施包括幫助研究人員了解新的科學(xué)研究方法,引導(dǎo)他們將人工智能工具集成到研究工作流程中等。此外,研究人員還需要理解人工智能的巨大潛力,并掌握人工智能介入研究背后的倫理、法律、認(rèn)知、社會、環(huán)境等方面的知識。高等教育機(jī)構(gòu)可通過促進(jìn)研究生態(tài)系統(tǒng)內(nèi)研究人員和利益相關(guān)者之間的開放式對話來培養(yǎng)這種意識,持續(xù)討論人機(jī)協(xié)作帶來的機(jī)遇與挑戰(zhàn)等議題,從而進(jìn)一步加深研究人員對人工智能格局發(fā)展的認(rèn)識。與此同時,高等教育機(jī)構(gòu)還需要鼓勵研究人員運(yùn)用新的思維方式,不僅將人工智能視為一種工具,還要將之視為研究工作中的合作伙伴。更重要的是,要在此基礎(chǔ)上培養(yǎng)研究人員的批判性思維技能,并持續(xù)探索如何利用人工智能加快推進(jìn)有利于公共利益的研究。

總之,當(dāng)前研究人員正在經(jīng)歷重要的技術(shù)變革,可能會面臨與身份、知識產(chǎn)權(quán)和倫理道德相關(guān)的挑戰(zhàn)。高等教育機(jī)構(gòu)應(yīng)當(dāng)積極采取措施,匯集法律專家、倫理學(xué)家和行業(yè)合作伙伴等各個方面的力量,共同制定有效舉措,合理應(yīng)對棘手難題。