
撰文 / 伏芳香、齊云龍
設(shè)計(jì) / 琚 佳
當(dāng)今的汽車圈,上半場(chǎng)電動(dòng)化下半場(chǎng)智能化,已經(jīng)成為行業(yè)共識(shí),智駕炙手可熱。2025年第一季度,各廠商扎堆發(fā)布智駕技術(shù)和產(chǎn)品,信心十足,仿佛智駕技術(shù)突然爆發(fā)式地到了next level——實(shí)際上良莠不齊。而宣傳中對(duì)L2、L3、L4這些智駕定級(jí)的模糊化,尤其是“0接管”這樣的描述,會(huì)導(dǎo)致消費(fèi)者對(duì)智能駕駛的實(shí)際情況盲目信任,一些“膽大”的用戶直接從方向盤上解放了雙手,無(wú)人駕駛。直到出現(xiàn)了小米SU7三位女孩殞命等慘劇,這才讓人們對(duì)智駕有了更多反思。

既然這里面起關(guān)鍵作用的是人類決策,那我們有必要對(duì)人的心理機(jī)制有更多清晰的認(rèn)識(shí),以避免或者至少減少此類慘劇的再次發(fā)生。
為什么智駕出事的司機(jī),那么盲目相信技術(shù)?開啟智駕后,人們的接管速度還會(huì)那么快嗎?車載智駕真的已經(jīng)做到“更像人”、“如老司機(jī)般”的程度了嗎?為什么出事后,輿情會(huì)呈現(xiàn)一邊倒的狀況?這背后,涉及哪些心理學(xué)原理和機(jī)制呢,這里給大家一一解讀。
幸存者偏差,實(shí)驗(yàn)室里的“安全神話”
幸存者偏差(Survivorship Bias)是指人們往往只關(guān)注成功案例而忽視失敗案例的邏輯謬誤。這種認(rèn)知陷阱,在智駕領(lǐng)域正在制造危險(xiǎn)的"安全神話"。車企公布的實(shí)驗(yàn)室數(shù)據(jù)如同經(jīng)過(guò)精心篩選的幸存者樣本:那些完美觸發(fā)AEB(自動(dòng)緊急制動(dòng))的測(cè)試場(chǎng)景,掩蓋了真實(shí)道路環(huán)境中諸如錐形桶、側(cè)翻車輛等非標(biāo)準(zhǔn)障礙物的“小概率”致命風(fēng)險(xiǎn)。
幸存者偏差研究的歷史可以追溯到二戰(zhàn)期間。當(dāng)時(shí)美軍戰(zhàn)機(jī)在空戰(zhàn)中損失慘重,為了提高飛機(jī)的防御能力,統(tǒng)計(jì)了作戰(zhàn)飛機(jī)的受損情況。他們發(fā)現(xiàn),返航飛機(jī)各個(gè)損傷部位被擊中的彈孔數(shù)不同,發(fā)動(dòng)機(jī)部位的彈孔數(shù)最少,而機(jī)身和機(jī)翼的彈孔較多,得出的結(jié)論是應(yīng)該在這些彈孔最密集的部位加上裝甲。然而,統(tǒng)計(jì)學(xué)家Abraham Wald提出了不同見解,他認(rèn)為應(yīng)該加強(qiáng)機(jī)尾的防護(hù)。因?yàn)樗芯亢蟀l(fā)現(xiàn),機(jī)身和機(jī)翼中彈但飛機(jī)仍能返航,說(shuō)明這些部位即使被擊中,飛機(jī)仍然能夠繼續(xù)飛行;而那些機(jī)尾被擊中的飛機(jī),根本就沒有返航的機(jī)會(huì),因此我們看不到它們的數(shù)據(jù)。就像二戰(zhàn)期間美軍打算強(qiáng)化機(jī)身和機(jī)翼防護(hù)的決策,智駕系統(tǒng)對(duì)極端工況的防護(hù)恰恰被"幸存者數(shù)據(jù)"所忽視。

小米SU7事故中,97km/h的撞擊速度遠(yuǎn)遠(yuǎn)超過(guò)C-NCAP測(cè)試標(biāo)準(zhǔn)的64km/h(50%正碰)和55km/h(100%正碰),系統(tǒng)失效的悲劇印證了實(shí)驗(yàn)室數(shù)據(jù)與現(xiàn)實(shí)場(chǎng)景的鴻溝。用戶往往被車企公布的實(shí)驗(yàn)室數(shù)據(jù)說(shuō)服,卻忽略真實(shí)場(chǎng)景中極端工況的不可控性。再者,這種偏差不僅存在于技術(shù)測(cè)試,更滲透在消費(fèi)者認(rèn)知中——我們?cè)诙桃曨l平臺(tái)經(jīng)常會(huì)看到智駕系統(tǒng)輕松完成環(huán)島行駛等演示,而那些因系統(tǒng)失效導(dǎo)致的事故視頻卻很少被推送到首頁(yè)。
自動(dòng)化信任與過(guò)度依賴
要了解人們?yōu)槭裁磿?huì)依賴技術(shù),我們首先我們有必要清晰“自動(dòng)化”、“信任”和“自動(dòng)化信任”這三個(gè)概念的心理學(xué)解釋?!白詣?dòng)化”(Automation)是指可以執(zhí)行原本由人來(lái)完成的一種或一系列任務(wù)的技術(shù),包括數(shù)據(jù)和信息的選擇,信息的轉(zhuǎn)化,決策和行動(dòng)(Parasuraman&Wickens,2008)?!靶湃巍笔顷P(guān)于結(jié)果的期待或者是某人對(duì)某些未來(lái)事件發(fā)生所持有的主觀概率(Rempel,Holmes,&Zanna,1985)?!白詣?dòng)化信任”(Automation Trust)是指用戶的一種認(rèn)知或情感狀態(tài) (Singh, Molloy,& Parasuraman,1993)。
在自動(dòng)化的可靠性很高但又不完全可靠的情況下,就會(huì)出現(xiàn)所謂的自動(dòng)化依賴的過(guò)度信任現(xiàn)象。這會(huì)改變大腦神經(jīng)遞質(zhì)平衡,讓人進(jìn)入心理松懈狀態(tài),表現(xiàn)為警覺性下降、反應(yīng)速度減慢。 長(zhǎng)期依賴智駕等自動(dòng)化系統(tǒng),還會(huì)使人的技能熟練度下降,使人更難應(yīng)對(duì)出現(xiàn)的問(wèn)題。即便是專業(yè)飛行員也難逃此劫,比如2009年法國(guó)航班墜毀于大西洋,其中重要的原因之一正是由于飛行員過(guò)度使用自動(dòng)飛行系統(tǒng),喪失了處理失速的技能。 錯(cuò)誤的心智模型與控制幻覺 “心智模型”指的是使用者關(guān)于系統(tǒng)如何工作的認(rèn)識(shí),如果使用者擁有關(guān)于自動(dòng)化系統(tǒng)如何工作的更多更好的知識(shí),那么更有可能達(dá)到對(duì)自動(dòng)化系統(tǒng)的合理使用。而如果人對(duì)系統(tǒng)運(yùn)行的心智模型是錯(cuò)誤的,可能會(huì)產(chǎn)生控制幻覺(Illusion of Control),既高估自身對(duì)事件的控制能力,同時(shí)低估運(yùn)氣或不可控因素的作用。如在駕駛場(chǎng)景中,駕駛者會(huì)錯(cuò)誤地認(rèn)為哪怕自己遇到接管情景,也能夠進(jìn)行有效應(yīng)對(duì)。 實(shí)際上,由于系統(tǒng)發(fā)生問(wèn)題時(shí)即使發(fā)出預(yù)警,人也需要足夠的時(shí)間來(lái)進(jìn)行反應(yīng)。比如一款智能駕駛汽車在封閉高速上表現(xiàn)穩(wěn)定,但當(dāng)遭遇道路施工等非常規(guī)場(chǎng)景時(shí),系統(tǒng)突然將控制權(quán)交還的瞬間,使得駕駛員來(lái)不及獲取情景意識(shí)而導(dǎo)致出現(xiàn)致命時(shí)刻。 獲取情境意識(shí)時(shí)間需求: 7s只能基本感知路面上車輛的數(shù)量 12s時(shí)才能改善對(duì)車輛相對(duì)距離判斷錯(cuò)誤 20s時(shí)對(duì)車輛相對(duì)速度的感知仍然有提升的空間 實(shí)際操作時(shí)刻表: Lu Z, Coster X, De Winter J. How much time do drivers need to obtain situation awareness? A laboratory-based study of automated driving[J]. Applied ergonomics, 2017, 60: 293-304 有證據(jù)表明提供自動(dòng)化的可靠性信息,可以幫助用戶校準(zhǔn)他們對(duì)系統(tǒng)的信任和依賴。要做到這些,必須要讓系統(tǒng)的使用者在實(shí)際使用自動(dòng)化前進(jìn)行訓(xùn)練或練習(xí),讓他們體驗(yàn)到“系統(tǒng)首次失敗”,但僅僅告知自動(dòng)化使用者發(fā)生故障遠(yuǎn)不及實(shí)際體驗(yàn)該故障有效,所以最好的訓(xùn)練方式不是看視頻,而是使用駕駛模擬器。 道德推脫,責(zé)任轉(zhuǎn)嫁的心理劇場(chǎng) Bandura的道德推脫(Moral Disengagement)理論在智駕事故中上演著現(xiàn)代版"責(zé)任羅生門"。事故后,部分駕駛者通過(guò)"責(zé)任轉(zhuǎn)移"機(jī)制,將責(zé)任歸咎于車企(如“系統(tǒng)未及時(shí)制動(dòng)”),通過(guò)轉(zhuǎn)移責(zé)任來(lái)緩解自身過(guò)錯(cuò)帶來(lái)的道德壓力,以尋求內(nèi)心的自洽,這是典型的自我合理化防御機(jī)制。 這種心理防御機(jī)制在一些 總之,以上偏差共同構(gòu)成“技術(shù)崇拜綜合征”,在智能駕駛場(chǎng)景中,表現(xiàn)為人類因過(guò)度信任技術(shù)而產(chǎn)生認(rèn)知盲區(qū),最終導(dǎo)致悲劇。 要打破這一系統(tǒng)性認(rèn)知陷阱,需充分意識(shí)到“自動(dòng)化嘲諷”效應(yīng)長(zhǎng)期存在的現(xiàn)狀、建立正確心智模型以促進(jìn)合理信任,以及充分尊重駕駛心理的生態(tài)化系統(tǒng)設(shè)計(jì)等多方面的科學(xué)心理建構(gòu)。 自動(dòng)化的嘲諷:因?yàn)橄到y(tǒng)具備自主運(yùn)行能力,所以我們會(huì)把原來(lái)應(yīng)該由人做的事情交給它來(lái)完成。但交出我們自身工作的時(shí)候,我們就對(duì)它的運(yùn)行過(guò)程喪失了更多的覺察。長(zhǎng)此以往,我們的能力還會(huì)下降。但這個(gè)系統(tǒng)本身卻并不是完美的,還需要我們接管它無(wú)法解決的事情。這種悖論,在工程心理學(xué)領(lǐng)域,被成為“自動(dòng)化的嘲諷”效應(yīng)。這實(shí)際上將在我們與人工智能交互的過(guò)程中長(zhǎng)期存在,每個(gè)人都應(yīng)該充分意識(shí)到它的存在。 建立正確心智模型以促進(jìn)合理信任:在新車使用和駕駛培訓(xùn)時(shí),通過(guò)有效展示車輛可能需要接管的情景,能夠有效構(gòu)建合理的心智模型,避免人的過(guò)度信任。 充分尊重駕駛心理的生態(tài)化系統(tǒng)設(shè)計(jì):除了法規(guī)和教育培訓(xùn)之外,還需要更加從人出發(fā)來(lái)設(shè)計(jì)智駕系統(tǒng)。比如,當(dāng)系統(tǒng)出現(xiàn)問(wèn)題的時(shí)候,工程心理學(xué)家會(huì)通過(guò)研究告知內(nèi)容、表達(dá)形式、模態(tài)匹配、時(shí)機(jī)搭配等角度來(lái)協(xié)助開發(fā)出有效的告警方式,在出現(xiàn)需要接管的時(shí)候,快速提高使用者的警覺性,讓他們很快知道環(huán)境里正在發(fā)生什么事情,人們應(yīng)該如何處置等等?,F(xiàn)在的研究者還開始從另一個(gè)角度入手,想方設(shè)法讓人哪怕在使用自動(dòng)駕駛時(shí),也能夠以一種輕松的方式保持對(duì)路面的注意力。 在這場(chǎng)人與機(jī)器的決策博弈中,真正的智能駕駛不應(yīng)是"技術(shù)崇拜的祭壇",而應(yīng)該是理性認(rèn)知的延伸。要破解這一困境,既要完善監(jiān)管,限制誤導(dǎo)性宣傳,推動(dòng)技術(shù)透明化,還要大力開展心理學(xué)科普和教育,讓車主對(duì)自身的反應(yīng)機(jī)制和心理機(jī)制有更清晰明確的認(rèn)識(shí);更要充分尊重人為因素的設(shè)計(jì),尤其是在需要接管時(shí)。當(dāng)駕駛者既能理解算法的局限,又能保持人類特有的情境感知優(yōu)勢(shì),做出更明智的決策時(shí),"智駕事故"才會(huì)從社會(huì)議題回歸技術(shù)議題。
熱門跟貼