在人工智能技術(shù)的驅(qū)動(dòng)下,人機(jī)協(xié)同決策效能逐步提升,展現(xiàn)出巨大的潛力。然而,當(dāng)前人機(jī)協(xié)同決策領(lǐng)域面臨情感問題、信任問題、決策權(quán)力分配問題和道德對(duì)齊問題等挑戰(zhàn)。本文提出了人機(jī)協(xié)同決策的未來發(fā)展方向,包括提升機(jī)器對(duì)人類情感的理解和響應(yīng)能力、建立穩(wěn)固的信任機(jī)制、優(yōu)化決策權(quán)力的分配方式,以及確保機(jī)器決策符合倫理和道德標(biāo)準(zhǔn)。在邁向人機(jī)共生的道路上,不僅需要技術(shù)創(chuàng)新,還需要結(jié)合心理學(xué)視角來應(yīng)對(duì)這些挑戰(zhàn),以實(shí)現(xiàn)更加高效、安全和可持續(xù)的人機(jī)協(xié)同決策。
目錄
1 人機(jī)協(xié)同決策:發(fā)展與基礎(chǔ)
2 人機(jī)協(xié)同決策的心理學(xué)
2.1 人機(jī)情感問題
2.2 人機(jī)信任問題
2.3 人機(jī)決策權(quán)力分配問題
2.4人機(jī)道德對(duì)齊問題
3 展望
人工智能的發(fā)展正在改變著人與機(jī)器的關(guān)系,人類正在從對(duì)機(jī)器的使用和控制轉(zhuǎn)向與機(jī)器的深度協(xié)作。20世紀(jì)60年代,Licklider提出“人機(jī)共生”概念,強(qiáng)調(diào)發(fā)揮人類與機(jī)器各自優(yōu)勢實(shí)現(xiàn)共同目標(biāo)。近年來,機(jī)器在認(rèn)知智能方面取得了長足的進(jìn)步,尤其在博弈學(xué)習(xí)、自然語言處理、圖像識(shí)別等領(lǐng)域已經(jīng)展現(xiàn)出超過人類表現(xiàn)的潛力。但人機(jī)協(xié)同過程中面臨人機(jī)內(nèi)部兼容性問題,涉及認(rèn)知、情感、價(jià)值觀等方面,如何解決這些問題成為人工智能領(lǐng)域的研究焦點(diǎn)。當(dāng)前研究表明,要實(shí)現(xiàn)高效的人機(jī)協(xié)同決策,需要解決幾個(gè)關(guān)鍵性挑戰(zhàn)。首先,人類和機(jī)器在心理模型上的不一致會(huì)明顯影響協(xié)作效率,這要求機(jī)器能夠理解人類的情感狀態(tài)并做出適當(dāng)反應(yīng)。其次,人類對(duì)機(jī)器的信任程度直接影響協(xié)同質(zhì)量——過度信任可能導(dǎo)致依賴,而信任不足則可能導(dǎo)致系統(tǒng)被忽視或誤用。第三,人機(jī)之間決策權(quán)力的合理分配至關(guān)重要,既要避免機(jī)器過度主導(dǎo)可能帶來的安全風(fēng)險(xiǎn),也要避免人類絕對(duì)主導(dǎo)導(dǎo)致無法充分發(fā)揮機(jī)器優(yōu)勢的情況。最后,隨著機(jī)器在決策中扮演越來越重要的角色,確保其決策符合人類倫理道德標(biāo)準(zhǔn)的需求日益凸顯?;谶@些研究成果,本文從機(jī)器智能如何能夠以人為中心地完成人機(jī)協(xié)同決策的角度,重點(diǎn)討論了情感理解、人機(jī)信任、決策權(quán)分配、道德對(duì)齊四個(gè)方面的內(nèi)容。
1 人機(jī)協(xié)同決策:發(fā)展與基礎(chǔ)
20世紀(jì)50年代,早期決策支持系統(tǒng)依賴人力計(jì)算和單一數(shù)學(xué)模型,隨著問題復(fù)雜性增加,超出了傳統(tǒng)的人力處理能力范疇,科研人員開始尋求大型計(jì)算機(jī)的輔助,由此開啟了人機(jī)協(xié)同決策的篇章。20世紀(jì)60年代,交互式計(jì)算機(jī)技術(shù)發(fā)展,大型計(jì)算機(jī)廣泛應(yīng)用,管理信息系統(tǒng)(MIS)出現(xiàn),但僅提供結(jié)構(gòu)化報(bào)告,缺乏交互支持。1971年,決策支持系統(tǒng)(DSS)概念提出,標(biāo)志著機(jī)器智能正式參與決策。進(jìn)入21世紀(jì),機(jī)器學(xué)習(xí)等技術(shù)的進(jìn)步提升了機(jī)器決策效能,其應(yīng)用擴(kuò)展至農(nóng)業(yè)發(fā)展、交通管理、災(zāi)害應(yīng)對(duì)等更廣泛的領(lǐng)域。
人機(jī)協(xié)同決策的核心在于利用人類與機(jī)器的互補(bǔ)優(yōu)勢。人類決策者擅長處理非結(jié)構(gòu)化問題、跨領(lǐng)域知識(shí)整合、創(chuàng)新思維和道德判斷,能夠理解復(fù)雜情境并做出靈活應(yīng)對(duì)。而機(jī)器在高速計(jì)算、大數(shù)據(jù)處理、長期記憶存儲(chǔ)和穩(wěn)定決策方面具有明顯優(yōu)勢。然而,人機(jī)雙方也各自存在局限:人類易受認(rèn)知偏見影響,在處理大量數(shù)據(jù)時(shí)能力有限,且容易出現(xiàn)決策疲勞;機(jī)器則在情境理解、知識(shí)遷移和應(yīng)對(duì)全新問題時(shí)表現(xiàn)不佳,缺乏人類的創(chuàng)造性思維和道德直覺。
這種人機(jī)之間的異質(zhì)性既是協(xié)同決策的基礎(chǔ),也是其面臨的挑戰(zhàn)。當(dāng)兩種本質(zhì)不同的智能體需要共同完成決策任務(wù)時(shí),如何克服彼此的差異,實(shí)現(xiàn)高效互補(bǔ),成為了人機(jī)協(xié)同決策研究的關(guān)鍵問題。只有解決了這一異質(zhì)性問題,才能真正發(fā)揮人機(jī)協(xié)同的潛力,提高決策質(zhì)量和效率,使人機(jī)協(xié)同決策成為未來決策科學(xué)的重要發(fā)展方向。
2人機(jī)協(xié)同決策的心理學(xué)
基于智能技術(shù)的機(jī)器正在從人類的輔助工具逐步發(fā)展成為具備一定程度人類認(rèn)知能力的自主化智能體,但是由于人機(jī)在決策能力上存在異質(zhì)性,這給人機(jī)協(xié)同決策帶來了新挑戰(zhàn)。本研究從心理學(xué)視角出發(fā),將目前人機(jī)協(xié)同決策面臨的主要挑戰(zhàn)總結(jié)為人機(jī)情感問題、人機(jī)信任問題、人機(jī)決策權(quán)力分配問題及人機(jī)道德對(duì)齊問題。
2.1 人機(jī)情感問題
情感是影響人類決策最重要的因素之一,在人機(jī)協(xié)同決策中讓機(jī)器理解人類情感并進(jìn)行適當(dāng)響應(yīng),能夠促進(jìn)人機(jī)信任,優(yōu)化決策效率,進(jìn)而增進(jìn)協(xié)作效果。1997年,Picard提出“情感計(jì)算”概念,旨在賦予機(jī)器識(shí)別、理解、適應(yīng)并表達(dá)人的情感的能力。當(dāng)前情感計(jì)算主要基于外部和內(nèi)部表征識(shí)別人類的基本情緒,但機(jī)器在情感識(shí)別方面存在準(zhǔn)確性低、對(duì)不同文化背景理解欠佳等問題,尤其在復(fù)雜和微妙情感識(shí)別上挑戰(zhàn)巨大。同時(shí),人類情感具有情境靈活性和個(gè)體差異,機(jī)器需具備高度情境理解和社交智能以適應(yīng)這些變化,而如何量化設(shè)計(jì)和實(shí)現(xiàn)這種情感交互仍是開放問題。未來人機(jī)協(xié)同決策中,機(jī)器需具備情感智能,優(yōu)化深度學(xué)習(xí)模型和深入理解人類情感機(jī)制是關(guān)鍵研究方向。
2.2 人機(jī)信任問題
人機(jī)信任直接影響了人類接受機(jī)器并遵循其決策或建議的意愿程度,過高或過低的人機(jī)信任程度都會(huì)降低人機(jī)協(xié)作任務(wù)的完成質(zhì)量。過度信任可能導(dǎo)致人類依賴機(jī)器、忽視自身直覺和經(jīng)驗(yàn),在關(guān)鍵情況下可能會(huì)導(dǎo)致決策失?。恍湃尾蛔銊t會(huì)使人類過度干預(yù)系統(tǒng),降低整體決策效率,“算法厭惡”就是人機(jī)信任不足的典型表現(xiàn)。為實(shí)現(xiàn)有效人機(jī)協(xié)同決策,需幫助用戶建立適度信任。可通過提高算法透明度,如開發(fā)可解釋的人工智能技術(shù);開展教育和培訓(xùn),讓人類理解機(jī)器算法性能和限制;優(yōu)化人機(jī)界面設(shè)計(jì),促進(jìn)溝通等方式來實(shí)現(xiàn)。此外,機(jī)器表現(xiàn)出類似人類的特征,如情感能力,人類更容易建立信任。
2.3 人機(jī)決策權(quán)力分配問題
如何在人類和機(jī)器之間平衡決策權(quán)力,從而充分利用各自的優(yōu)勢實(shí)現(xiàn)高效的協(xié)同決策是人機(jī)協(xié)同決策領(lǐng)域的重要議題。機(jī)器主導(dǎo)決策可能引發(fā)系統(tǒng)安全風(fēng)險(xiǎn),人類占據(jù)絕對(duì)領(lǐng)導(dǎo)地位則無法充分發(fā)揮機(jī)器性能優(yōu)勢。目前多數(shù)人機(jī)協(xié)作情境中,決策權(quán)由人類決策者主導(dǎo)。研究表明,人機(jī)決策權(quán)力分配會(huì)影響決策策略,人類存在對(duì)環(huán)境或自身行為的控制需求。合理的人機(jī)權(quán)力分配應(yīng)具備動(dòng)態(tài)性和靈活性,從機(jī)器角度可采用自適應(yīng)自動(dòng)化系統(tǒng),根據(jù)環(huán)境和任務(wù)調(diào)整決策權(quán)力;從人的角度出發(fā),可增加人類在決策過程中的參與感受、提供有關(guān)機(jī)器智能及其安全性的教育和培訓(xùn),并根據(jù)人類狀態(tài)和外部條件調(diào)整權(quán)力分配,未來人機(jī)決策權(quán)力分配將朝著更平衡、互補(bǔ)的方向發(fā)展。
2.4 人機(jī)道德對(duì)齊問題
隨著機(jī)器決策權(quán)力增加,人機(jī)道德差異問題凸顯。人類對(duì)機(jī)器道德判斷機(jī)制理解不全面,會(huì)質(zhì)疑機(jī)器決策的道德性,同時(shí)人類在與機(jī)器共同承擔(dān)責(zé)任時(shí),人類可能出現(xiàn)道德逃避行為,試圖將責(zé)任推給機(jī)器。
機(jī)器對(duì)人類價(jià)值觀和道德的忽視主要是由機(jī)器理性決策的刻板印象導(dǎo)致的,如自動(dòng)駕駛汽車的道德困境和面部識(shí)別系統(tǒng)的偏見問題。為解決這些問題,研究人員嘗試將情感、道德等因素納入機(jī)器學(xué)習(xí)模型,使用無偏見訓(xùn)練數(shù)據(jù)、更新算法等。在人機(jī)協(xié)同中道德責(zé)任歸屬是復(fù)雜的問題,不少學(xué)者呼吁出臺(tái)相關(guān)新法律、明確法律框架,以確定人類和機(jī)器在不同情況下的責(zé)任。人機(jī)協(xié)同中的挑戰(zhàn)現(xiàn)狀如表1所示。
表1 人機(jī)協(xié)同決策挑戰(zhàn)現(xiàn)狀

3展望
2017年7月8日,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,明確了人工智能作為新一代科技革命和產(chǎn)業(yè)變革核心動(dòng)力,在國家戰(zhàn)略中的關(guān)鍵地位。規(guī)劃針對(duì)2030年中國新一代人工智能發(fā)展提出了戰(zhàn)略目標(biāo),將人機(jī)協(xié)同的混合增強(qiáng)智能列為人工智能發(fā)展的核心方向之一。
在此背景下,人機(jī)協(xié)同決策系統(tǒng)不僅需要具備高效的執(zhí)行能力,更需要考慮減少協(xié)作時(shí)的摩擦,這涉及到人機(jī)情感問題、人機(jī)信任問題、決策權(quán)力分配問題,以及責(zé)任劃分等道德問題。
從機(jī)器的角度,需要具備情感智能,以便深入理解和適應(yīng)人類的情感。機(jī)器還需要提高可解釋性,使用戶能理解其決策過程及依據(jù),以形成可信可靠的人機(jī)協(xié)同決策模式。未來的人工智能系統(tǒng)還應(yīng)具備泛化能力,適應(yīng)不同的領(lǐng)域和場景,自適應(yīng)地根據(jù)人類和機(jī)器的實(shí)時(shí)性能、信任度和需求進(jìn)行權(quán)力調(diào)整,實(shí)現(xiàn)更高效和安全的協(xié)同決策。
從人類的角度,政府和企業(yè)需要采取相應(yīng)措施,如推動(dòng)教育和培訓(xùn),使人類決策者適應(yīng)新的技術(shù)和工作崗位,確保人類在人工智能時(shí)代的競爭力和價(jià)值。為實(shí)現(xiàn)人機(jī)協(xié)同決策,人類需要了解機(jī)器在不同領(lǐng)域的能力邊界,以充分利用其優(yōu)勢并避免過度依賴。同時(shí),還需考慮人的適應(yīng)問題,如適應(yīng)不斷變革的智能化工作方式,處理可能出現(xiàn)的心理問題等。
展望未來,新技術(shù)有望顯著提升人機(jī)協(xié)同效能,尤其是腦機(jī)接口(brain-computer interface,BCI)技術(shù)將成為關(guān)鍵推動(dòng)力。BCI技術(shù)通過直接讀取和解釋大腦信號(hào),實(shí)時(shí)捕捉用戶的意圖和情感狀態(tài),并將其反饋給機(jī)器,使其能夠更準(zhǔn)確地理解人類的情感、需求和意圖,從而實(shí)現(xiàn)更加自然和高效的人機(jī)交互。
綜上所述,未來的人機(jī)協(xié)同決策研究應(yīng)該注重多學(xué)科的融合,以應(yīng)對(duì)復(fù)雜多變的決策環(huán)境,以更好地實(shí)現(xiàn)人機(jī)互理解和互適應(yīng),從而邁向人機(jī)共生的新時(shí)代。
作者簡介: 朱奧、劉華碩、袁佩君、張丹
本文作者:朱奧,清華大學(xué)心理與認(rèn)知科學(xué)系,博士研究生,研究方向?yàn)槿藱C(jī)協(xié)同決策;袁佩君(通信作者),啟元實(shí)驗(yàn)室,助理研究員,研究方向?yàn)槿藱C(jī)交互;張丹(共同通信作者),清華大學(xué)心理與認(rèn)知科學(xué)系,清華大學(xué)腦與智能實(shí)驗(yàn)室,副教授,研究方向?yàn)榍楦杏?jì)算、腦機(jī)接口。
論文全文發(fā)表于《科技導(dǎo)報(bào)》2025年第3期,原標(biāo)題為《邁向人機(jī)共生時(shí)代:人機(jī)協(xié)同決策的心理學(xué)視角》,本文有刪減,歡迎訂閱查看。
內(nèi)容為【科技導(dǎo)報(bào)】公眾號(hào)原創(chuàng),歡迎轉(zhuǎn)載
白名單回復(fù)后臺(tái)「轉(zhuǎn)載」
《科技導(dǎo)報(bào)》創(chuàng)刊于1980年,中國科協(xié)學(xué)術(shù)會(huì)刊,主要刊登科學(xué)前沿和技術(shù)熱點(diǎn)領(lǐng)域突破性的成果報(bào)道、權(quán)威性的科學(xué)評(píng)論、引領(lǐng)性的高端綜述,發(fā)表促進(jìn)經(jīng)濟(jì)社會(huì)發(fā)展、完善科技管理、優(yōu)化科研環(huán)境、培育科學(xué)文化、促進(jìn)科技創(chuàng)新和科技成果轉(zhuǎn)化的決策咨詢建議。常設(shè)欄目有院士卷首語、智庫觀點(diǎn)、科技評(píng)論、熱點(diǎn)專題、綜述、論文、學(xué)術(shù)聚焦、科學(xué)人文等。
熱門跟貼