打開網(wǎng)易新聞 查看精彩圖片

事實上,人工智能猶如人類社會的鏡子。世界呈現(xiàn)什么樣子,算法都會如實反映。更令人擔(dān)憂的是,受人類偏見影響的AI,很可能會繼續(xù)強化這些偏見。

早在23年前,導(dǎo)演史蒂文·斯皮爾伯格憑借名為《少數(shù)派報告》的科幻電影,“神預(yù)言”了我們今天的世界,以及人工智能時代的倫理困境。

影片中,人類憑借三個“先知”機器人預(yù)知未來的能力,建立了一套犯罪預(yù)防系統(tǒng)。但作為執(zhí)法者的約翰·安德頓,卻被系統(tǒng)預(yù)判為“即將行兇的殺人犯”而被迫逃亡。直到他發(fā)現(xiàn)所謂“系統(tǒng)”的致命漏洞——三個“先知”看到的未來并非每次都相同,當(dāng)出現(xiàn)分歧時,就會按少數(shù)服從多數(shù)原則定案,同時秘密保存一份“少數(shù)派報告”。

斯皮爾伯格借電影提出了超脫于時代的拷問:系統(tǒng)雖以“公正”之名運行,但其預(yù)測結(jié)果是否等同于事實?少數(shù)派的抗?fàn)幨欠裉烊诲e誤,而主流判斷是否必然意味著真理?這些問題,在今天顯得越發(fā)尖銳。

(圖/《少數(shù)派報告》)
打開網(wǎng)易新聞 查看精彩圖片
(圖/《少數(shù)派報告》)

如今,人類社會越來越依賴于用“系統(tǒng)”進行決策。

在大洋彼岸的美國,AI算法決定哪些街區(qū)會被安排更多巡邏的警察,哪些無家可歸的人會更快獲得政府的公共房屋,哪些社會群體可以優(yōu)先注射疫苗……《少數(shù)派報告》中的預(yù)防犯罪系統(tǒng)也已不再只是科幻設(shè)定。AI廣泛應(yīng)用于預(yù)測性警務(wù),分析犯罪熱點、評估嫌疑人的再犯風(fēng)險,甚至在某些情況下給出是否應(yīng)提前干預(yù)的警示。

可當(dāng)越來越多的算法決策取代人工判斷時,人們卻發(fā)現(xiàn)與《少數(shù)派報告》高度相似的另一層現(xiàn)實——“先知”并非總是正確,人工智能也不會永遠保持客觀和公平。

美國法院借助“再犯風(fēng)險評分系統(tǒng)”量刑,對黑人被告的誤判率是白人的2倍;號稱5秒匹配求職者的AI招聘系統(tǒng),卻會自動拒絕55歲以上女性和60歲以上男性的求職申請;谷歌圖像識別系統(tǒng)曾將黑人程序員標(biāo)注為“大猩猩”,算法歷經(jīng)8年迭代,仍無法消除種族識別偏差……

(圖/《我,機器人》)
打開網(wǎng)易新聞 查看精彩圖片
(圖/《我,機器人》)

甚至,一次源于偏見的算法失誤,足以引發(fā)災(zāi)難級事故——數(shù)年前,荷蘭稅務(wù)系統(tǒng)使用算法識別可能涉及福利欺詐的對象時,錯誤地將少數(shù)族裔低收入群體標(biāo)記為“高風(fēng)險”,導(dǎo)致數(shù)千人收到錯誤罰單,部分受害者因此破產(chǎn)甚至自殺。

這一切都源于AI的偏見。當(dāng)AI開始決定誰該被監(jiān)視、誰配獲得資源、誰應(yīng)接受懲罰,普通人該如何直面這個“數(shù)字利維坦”?

AI的傲慢與偏見

2016年,英國某智能系統(tǒng)接受測試,當(dāng)面對“男性是程序員,女性是×××”的句子時,系統(tǒng)暴露出算法偏見的冰山一角,填空答案上赫然顯示“家庭主婦”。

八年過去,類似問題并未消退,反而在技術(shù)迭代下構(gòu)筑出更為龐大的系統(tǒng)性偏見。2024年,加州大學(xué)伯克利分校哈斯商學(xué)院的一項研究結(jié)果令人心驚:在被分析的133個行業(yè)AI系統(tǒng)中,存在性別刻板印象的占44%,兼具性別與種族雙重偏見的占25%。

“人類決策尚有四人對辯的可能,(但)AI不具備(基于)情境(進行)判斷的彈性,一旦習(xí)得偏見,就會在所有場景中機械化執(zhí)行,系統(tǒng)性地放大歧視。”清華大學(xué)新聞與傳播學(xué)院教授陳昌鳳向《新周刊》闡釋道。

AI偏見對人類社會的侵襲,并不難發(fā)現(xiàn)。當(dāng)你要求AI生成“醫(yī)生與護士”的故事時,算法往往默認(rèn)醫(yī)生為男性;讓AI繪制“家長做家務(wù)”的場景時,畫面上大概率會呈現(xiàn)女性形象。如果認(rèn)為這只是偶然,就恰恰低估了機器偏見對現(xiàn)實生活的影響。

(圖/《銀翼殺手2049》)
打開網(wǎng)易新聞 查看精彩圖片
(圖/《銀翼殺手2049》)

它們潛藏在你所能接觸到的任何角落,同時破壞了社會公平性——亞馬遜研發(fā)的AI招聘工具在篩選簡歷時,將應(yīng)聘者的“女子學(xué)院”經(jīng)歷視為負(fù)面指標(biāo),以至于曾在女校工作的男性申請者也被誤判;國外的一些保險公司或銀行用AI去做理賠或者貸款評估時,判斷過審與否的標(biāo)準(zhǔn)僅僅是“姓氏”“種族”本身……

追根溯源,AI偏見之所以會產(chǎn)生,還是因為真實世界里的數(shù)據(jù)“原罪”。

“你喂給AI什么數(shù)據(jù),它就產(chǎn)出什么,其認(rèn)知邊界取決于被投喂數(shù)據(jù)的廣度、精度與深度?!敝锌坡劯瓒麻L王磊向《新周刊》舉例稱,當(dāng)語料庫中的中文數(shù)據(jù)不足,模型會產(chǎn)生語種偏見;當(dāng)投向大模型的特定國家人文社科內(nèi)容匱乏,文化偏見則滋生。數(shù)據(jù)局限迫使AI將局部“現(xiàn)實”固化為普世標(biāo)準(zhǔn),從而導(dǎo)致了機器認(rèn)知的缺陷。

(圖/《我,機器人》)
打開網(wǎng)易新聞 查看精彩圖片
(圖/《我,機器人》)

更深層的AI偏見還源于人類自身。

復(fù)旦大學(xué)計算機科學(xué)技術(shù)學(xué)院教授張軍平在接受《新周刊》采訪時表示:“從數(shù)據(jù)采集的片面性到算法設(shè)計者的潛意識傾向,每個環(huán)節(jié)都有可能為AI注入偏見基因?!盕acebook前工程師就曾承認(rèn),其自由派立場導(dǎo)致算法會對保守派信息進行系統(tǒng)性壓制?!爸灰帉懰惴ǔ绦虻氖侨?,就會存在風(fēng)格偏好,哪怕只是一點點的投入都會導(dǎo)致算法出現(xiàn)偏差?!睆堒娖秸f道。

如今,AI技術(shù)倫理問題,正在制造一個個算法繭房。正如美國機會與正義法律咨詢公司主任韋弗所擔(dān)心的,人們可能會陷入一個惡性循環(huán):人類自身偏見影響AI,而AI又反過來強化這些偏見。

算法偏見是人類社會的投射

人工智能的偏見可以被徹底消除嗎?

當(dāng)前,行業(yè)內(nèi)外正通過數(shù)據(jù)平衡與清洗等手段應(yīng)對這個問題。歐盟《人工智能法案》強制要求高風(fēng)險系統(tǒng)植入倫理審查模塊;OpenAI通過安全護欄對自殺傾向等敏感話題實施正向引導(dǎo)、動態(tài)數(shù)據(jù)清洗;密歇根大學(xué)的研究人員開發(fā)了一種算法來糾正醫(yī)療數(shù)據(jù)中的種族偏見……

“應(yīng)對AI偏見的路徑主要集中在三大方向:盡可能全面地覆蓋數(shù)據(jù);借助指令模板和人類反饋,實現(xiàn)AI和人類價值觀的對齊;采用AI對抗AI策略,通過攻擊性提問主動暴露系統(tǒng)漏洞?!蓖趵谥赋?,目前修正AI偏見最好的方式,仍是從數(shù)據(jù)源頭上入手。

然而,數(shù)據(jù)清洗和多樣覆蓋并不能根治算法偏見問題。張軍平向《新周刊》解釋:“當(dāng)前大模型的TB級訓(xùn)練數(shù)據(jù)如同信息海洋,徹底清除偏見猶如大海撈針。絕對的‘?dāng)?shù)據(jù)均衡’也只是理論理想,實踐中只能追求動態(tài)平衡——消除AI偏見(最有效)的方式既粗暴又低效,(那就是)看見一例消除一例?!?/p>

(圖/《銀翼殺手2049》)
打開網(wǎng)易新聞 查看精彩圖片
(圖/《銀翼殺手2049》)

但這種“頭痛醫(yī)頭”的修正方式,難以撼動系統(tǒng)深層的認(rèn)知偏差。人工智能系統(tǒng)常被比作“黑箱”,其決策機制因算法的復(fù)雜性而難以溯源——可能就連設(shè)計者自己都很難解釋,AI究竟如何通過對多種數(shù)據(jù)的計算,得出最終決策結(jié)果。

專家們坦言:“算法黑箱的不可解讀性,正是攻克AI偏見的最大技術(shù)瓶頸。”清華大學(xué)調(diào)研團隊曾在采訪夸克AI算法工程師時提到這個問題,對方發(fā)出靈魂反問:“難道你要我們憑空創(chuàng)造完美世界?一個不存在人類缺陷的烏托邦?”

“如何完全消除AI偏見,無異于在問我們?nèi)绾蝿?chuàng)造一個絕對真空的世界?!?陳昌鳳以物理學(xué)類比,“人工智能猶如人類社會的鏡子,其偏見是價值觀的數(shù)字化投射——世界是怎樣的,算法反映出來就是怎樣的,它幾乎無可避免地沾染和承載了人類的歷史、仇恨、歧視?!?/p>

(圖/《我,機器人》)
打開網(wǎng)易新聞 查看精彩圖片
(圖/《我,機器人》)

還記得2016年微軟聊天機器人Tay的失控事件嗎?這個最初滿屏“人類真酷”的“數(shù)字嬰兒”,在推特用戶的集體教唆下,僅16小時便淪為充滿性別歧視、散布納粹言論的“數(shù)字暴徒”,最終被迫緊急下架。

當(dāng)數(shù)萬名用戶用惡意數(shù)據(jù)重塑Tay的神經(jīng)網(wǎng)絡(luò)時,那些充滿偏見的數(shù)據(jù)集恰似“照妖鏡”,讓人類靈魂深處的幽暗纖毫畢現(xiàn)。

“人工智能既可以鏡像(呈現(xiàn))人類的善意,也可能將惡意幾何級放大?!标惒P指出。從現(xiàn)實語料到工程師的認(rèn)知局限,AI始終如實映射著真實社會,在現(xiàn)有技術(shù)框架下,人工智能的偏見注定如影隨形。

誰該為AI偏見買單?

2020年,一場由AI圖像修復(fù)工具引發(fā)的推特論戰(zhàn),揭開了技術(shù)界長久以來的隱痛,也將“AI偏見”議題推至風(fēng)口浪尖。該事件的導(dǎo)火索是杜克大學(xué)的研究團隊研發(fā)的PULSE算法——這款能將模糊照片高清化的工具,竟將奧巴馬的像素化照片“修復(fù)”成白人面容。

Facebook首席AI科學(xué)家楊立昆將問題歸咎于訓(xùn)練數(shù)據(jù)中白人樣本占比過高,提出“若使用非洲數(shù)據(jù)集訓(xùn)練,結(jié)果會不同”。時為Google AI倫理研究員的蒂姆尼特·格布魯則犀利反駁:“數(shù)據(jù)偏見只是表象,系統(tǒng)設(shè)計者的責(zé)任同樣不可推卸?!?/p>

這場持續(xù)27小時的辯論最終以楊立昆注銷賬號落幕,卻為科技界留下了哲學(xué)詰問:當(dāng)人工智能的偏見成為必然,將責(zé)任簡單歸因于“數(shù)據(jù)”而非“系統(tǒng)”本身,是否構(gòu)成對設(shè)計者責(zé)任的逃避?如果僅有數(shù)據(jù)存在偏見,是否只需追究數(shù)據(jù)采集者的責(zé)任?

打開網(wǎng)易新聞 查看精彩圖片

2025年2月21日,瑞典斯德哥爾摩。Copy Lab創(chuàng)始人在公司辦公室記錄一張用于AI訓(xùn)練的人臉。(圖/視覺中國)

陳昌鳳指出,當(dāng)前AI法律責(zé)任框架仍陷于互聯(lián)網(wǎng)時代的治理邏輯——當(dāng)人被菜刀所傷,追責(zé)對象應(yīng)是持刀者而非刀具商。但AI系統(tǒng)的責(zé)任判定須從雙重維度出發(fā):既要明確“誰在使用”,更要追溯“誰在控制”。

以醫(yī)療AI為例。當(dāng)患者按照AI開具的致害處方服藥,法律不會要求患者自擔(dān)風(fēng)險;若醫(yī)院采用認(rèn)證AI輔助診療,責(zé)任主體將轉(zhuǎn)移至應(yīng)用端機構(gòu);當(dāng)個人擅自使用AI未認(rèn)證的藥物,則適用“風(fēng)險自擔(dān)”原則。這恰恰也說明了AI倫理安全的治理來自全鏈條——最終如果機器做了壞事,任何一個人都難逃其責(zé)。

面對AI偏見,普通公民并非無能為力。細(xì)微處的發(fā)聲與行動尤為重要:分享父親輔導(dǎo)作業(yè)的家庭影像、上傳女機械師的車間工作記錄,甚至點贊社區(qū)阿姨維修無人機的視頻……“投喂”打破刻板印象的真實數(shù)據(jù)樣本,就是在為算法世界校準(zhǔn)坐標(biāo),這終將重塑AI認(rèn)知。

打開網(wǎng)易新聞 查看精彩圖片

2025年2月20日,美國紐約。佳士得舉辦的“增強智能”媒體預(yù)覽會上,一位觀眾在觀看AI藝術(shù)作品。(圖/視覺中國)

另一方面,保留作為人的深度思考能力同樣重要?!癆I并非教條,而是能與人互動的對象?!标惒P說,學(xué)會辨別、驗證信息將會是 AI原住民的基本能力。業(yè)內(nèi)也認(rèn)識到思考能力的重要性,包括Deepseek、夸克AI在內(nèi)的大模型,正掀起一波“推理熱”——“不會深度思考的 AI搜索已經(jīng)不合格了”。

當(dāng)黑人面容被算法“漂白”,當(dāng)女性形象被AI固化,我們面對的不僅是技術(shù)漏洞,更是文明進程中的身份焦慮與權(quán)力重構(gòu)。唯有將對歷史的反思編入代碼,讓多元的聲音參與設(shè)計,才能阻止算法淪為“偏見放大器”。

正如普林斯頓大學(xué)教授、社會學(xué)家魯哈·本杰明在深度學(xué)習(xí)大會ICLR 2020上說的那句警世恒言——“缺乏社會歷史縱深的‘深度學(xué)習(xí)’終將淪為‘淺薄學(xué)習(xí)’?!币?a class="keyword-search" >真實世界為鏡,公平的AI不會從“完美數(shù)據(jù)”中自動誕生。

(《新周刊》記者羅隱對本文亦有貢獻)

編輯 晏非

運營 馬社力佛