打開網(wǎng)易新聞 查看精彩圖片

? 鄭戈

上海交通大學凱原法學院

【導讀】近日,馬斯克稱將出資974億美元收購OpenAI,使其回歸開源,再將其與自己旗下的xAI合并。這一言論使OpenAI陷入控制權(quán)之爭。據(jù)悉,OpenAI的兩位聯(lián)合創(chuàng)始人正是馬斯克與奧爾特曼,在馬斯克離開后才推動了OpenAI的盈利化轉(zhuǎn)型。本文以微軟與OpenAI的投資談判為切入點,探討人工智能發(fā)展中資本與技術(shù)的關(guān)系及其社會影響,指出應(yīng)確保人工智能發(fā)展符合人類目的,避免資本過度主導。

本文以O(shè)penAI發(fā)布的Sora為例指出,它雖在概念證明上成功,但在技術(shù)創(chuàng)新和社會效益方面存在問題,是 “暴力計算” 產(chǎn)物。而OpenAI與微軟整合,在發(fā)展中改變策略,將大模型授權(quán)給微軟獨享,這繼而強化了微軟的壟斷地位,損害了消費者的利益。最終導致“我們的命運可能不是被AI控制,而是被掌握AI的人控制”。

這篇文章寫于DeepSeek上線之前,我們能夠從中看出作者的預見性。他認為,在投資者利益驅(qū)動下的人工智能技術(shù)形態(tài)和商業(yè)模式,會進一步收割用戶的注意力、時間、金錢和智商,而非實現(xiàn)真正的社會發(fā)展。而在DS之前,中國人工智能的發(fā)展已獨具特色:面向B端(企業(yè))市場提高生產(chǎn)力,而不是C端的消費娛樂。作者繼而提出,發(fā)展人工智能應(yīng)基于人本主義立場,即我們創(chuàng)造機器不是為了讓它像人、替代人,而是讓它幫助我們?nèi)プ瞿切┈?、勞累、重復但又必要的工作,作為人的輔助角色。

此外,作者還援引了阿努·布拉德福德的“數(shù)字帝國”用以闡述中美歐數(shù)字經(jīng)濟不同的發(fā)展模式:一是美國的市場驅(qū)動模式,鼓勵贏家通吃,甘冒巨大的風險;二是中國的國家驅(qū)動模式,以發(fā)展和穩(wěn)定為價值訴求,試圖在兩者之間維持平衡;三是歐盟的權(quán)利本位模式,試圖在數(shù)字技術(shù)不斷侵蝕人類隱私和自主性的現(xiàn)實處境中維系人的尊嚴和權(quán)利。

本文原載《文化縱橫》2024年4月刊,原題為《人工智能不應(yīng)成為資本的“獨角戲”》,僅代表作者觀點,供讀者參考。

人工智能不應(yīng)成為資本的“獨角戲”

當OpenAI于2024年2月15日正式發(fā)布文生視頻AI工具Sora時,人們被其視頻效果驚艷了。一個戴墨鏡的高冷女人行走在東京的大街上,周圍霓虹閃爍,行人如織。一切看起來都是那么真實。而這段視頻的“創(chuàng)作者”是人工智能,人只是用文字給出了指令:“一位女士行走在夜晚的東京街道上”。我的疑惑是:看不出這個工具有什么用。當然,這作為概念證明(Proof-of-Concept)是成功的,一下子點燃了人們的興趣,也吸引了投資人的注意。但在新鮮感過去之后,誰會去看一個個一分鐘不到、沒有故事線也沒有感情的短視頻呢?正如之前的元宇宙一樣,如果一種技術(shù)無法滿足人們的現(xiàn)實需求,無法形成穩(wěn)定的商業(yè)模式和供需關(guān)系,那么它最終就會淪為炒作的噱頭。今天的Sora遠不像鼓吹者所說的那樣是通用人工智能(AGI)的重大突破,抑或進一步拉大了中美之間在AI領(lǐng)域的技術(shù)差距,而只是一個重資本支撐下不計成本的“暴力計算”的產(chǎn)物,在技術(shù)上沒有多少創(chuàng)新,在社會效益上成本大于收益。

從技術(shù)上講,作為Sora之基礎(chǔ)的大模型雖然涉及Transformer、Diffusion、GAN等算法創(chuàng)新,但這些創(chuàng)新并不是OpenAI獨自做出的。OpenAI的成功是基于算力、算法和數(shù)據(jù)的規(guī)模升級,是摩爾定律和梅特卡夫定律所揭示的技術(shù)的政治經(jīng)濟效應(yīng)的表現(xiàn)。換句話說,大模型依靠的是“暴力計算”,即高性能GPU運行千億級參數(shù)模型通過海量數(shù)據(jù)進行預訓練。用OpenAI首席科學家伊利亞·蘇茨克沃的話來說:“如何解決難題?使用大量訓練數(shù)據(jù)以及一個大型神經(jīng)網(wǎng)絡(luò)。這樣,你可能得到的唯一結(jié)果就是成功?!睘榇耍琌penAI的主要投資者微軟投入數(shù)億美元資金為OpenAI打造了一套超算系統(tǒng),由上萬顆單價數(shù)萬美元的英偉達A100芯片組成,這套系統(tǒng)為訓練ChatGPT提供了3640PF-days的算力消耗(即假如每秒計算1000萬億次,連續(xù)計算3640天)。這個道理行內(nèi)人都懂,只是能夠如此燒錢打造“大裝置”,并能夠獲取足夠多的數(shù)據(jù)供其訓練算法的人很少。

由此可見,大模型訓練是一個燒錢和耗能的游戲,充滿重資本的味道,一點兒也不節(jié)能環(huán)保。這時,我們就需要對大模型的商業(yè)和社會應(yīng)用進行一番成本-收益分析,看看它所帶來的收益是否大于成本,以及收益的歸屬和成本的分擔。在進行這種分析的時候,我們應(yīng)當注意尚未被計入成本的那些外部性,比如實際上由公眾承擔成本的環(huán)境損害和系統(tǒng)性風險,以及它可能帶來的好處。大模型能夠帶來的好處似乎是顯而易見的。雖然訓練成本高昂,但一經(jīng)訓練成功,它就可以產(chǎn)生巨大的生產(chǎn)力,自動化地生產(chǎn)文字、圖像和音視頻內(nèi)容,比如幫助文字工作者生成文案和文學作品,幫助醫(yī)生了解病人的病史和癥狀描述并形成診斷和治療方案,幫助老師、科研人員和學生閱讀大量文本并提取關(guān)鍵知識點和主要論點,幫助法律職業(yè)者審閱法律文件、分析法律問題并形成初步法律意見書,等等。但這些好處本身也可能直接轉(zhuǎn)化為壞處,因為這些“幫助”都可以變成“替代”。尤其是當普通勞動者、消費者和內(nèi)容創(chuàng)作者對技術(shù)及其部署毫無發(fā)言權(quán)和影響力的時候。正因如此,AI不只是技術(shù)議題,更是公共議題,技術(shù)的發(fā)展方向和應(yīng)用場景是由技術(shù)之外的政治、經(jīng)濟和法律因素決定的。用一本題為《AI需要你》的新書中的話來說:“人工智能不是價值中立的,也不應(yīng)該是。歷史告訴我們,今天的人工智能科學家和建設(shè)者應(yīng)該帶著意圖和目標前進,而不是擁抱虛假的中立。這一目的應(yīng)該是致力于和平的,是清醒認識到技術(shù)之局限性的,是將服務(wù)于公共福祉的項目擺在優(yōu)先地位的,并且是植根于社會信任與和諧的?!币韵聦⒎謩e討論發(fā)展AI的目的(目的決定方向,包括技術(shù)和應(yīng)用的發(fā)展方向)、發(fā)展AI的成本和收益以及可能的規(guī)制路徑。

生成式人工智能的第一種可能未來,是作為資本炒作故事(hype)而煙消云散,正像之前的區(qū)塊鏈和元宇宙一樣。這是最沒有技術(shù)和商業(yè)模式的創(chuàng)新,最有損中小投資者和消費者的利益,卻最有可能出現(xiàn)的未來。在ChatGPT橫空出世之際,人們還沒從元宇宙熱中走出。然而,熱潮過后留下的是個爛攤子:浪費的資源,收不回的成本,雞肋般的架構(gòu)設(shè)計和戰(zhàn)略布局。到2022年,Meta的元宇宙部門“現(xiàn)實實驗室”在財務(wù)年報中上報了137億美元的營業(yè)損失。

生成式人工智能當然與元宇宙不一樣。元宇宙的發(fā)展限度在于,它超出了單一企業(yè)(無論何等規(guī)模的巨頭)能夠控制的數(shù)字基礎(chǔ)設(shè)施能力,包括但不限于網(wǎng)絡(luò)帶寬。元宇宙模式所傳輸?shù)娜蝗⒂跋穸际菬o比龐大的數(shù)據(jù)集,一旦超出一定規(guī)模來部署,必定會導致嚴重的卡頓和延遲,更不用說達到鼓吹者所說的流暢的臨境感。而生成式人工智能僅僅在研發(fā)端需要龐大的算力和數(shù)據(jù),一旦研發(fā)成功,在用戶端則不會占據(jù)過多的網(wǎng)絡(luò)傳輸和終端算力資源。實際上,我國企業(yè)在生成式人工智能的可持續(xù)商業(yè)模式方面已經(jīng)探索出一條可行的道路,那就是面向企業(yè)(B端)市場,比如華為的盤古大模型在氣象預測、工控系統(tǒng)和政務(wù)系統(tǒng)中的應(yīng)用;商湯的日日新大模型系列中面向醫(yī)療系統(tǒng)的“大醫(yī)”、面向汽車和交通行業(yè)的“絕影”、面向城市規(guī)劃和空間設(shè)計行業(yè)的“瓊宇”、面向制造業(yè)和需要進行產(chǎn)品展示的商貿(mào)企業(yè)的“格物”等。但目前引起媒體和公眾廣泛關(guān)注的,恰恰是面向個人用戶(C端)的文字、音視頻生成類應(yīng)用,而這一類應(yīng)用很可能只是曇花一現(xiàn)。

比如,用過ChatGPT之類的對話式內(nèi)容生成工具的人都知道,它們生成的“小作文”中充滿了錯誤的引用、編造的法律條文或數(shù)據(jù)以及似是而非的話術(shù)。這些被統(tǒng)稱為“幻覺”的內(nèi)容混雜在貌似言之成理的內(nèi)容當中,使得查驗與核實工作變得十分煩瑣,在嚴肅工作中實際上會加重而不是減輕專業(yè)人士的負擔,因此不會在這些工作場合得到廣泛使用。它得到生產(chǎn)性使用的場合,反而多是人類的法律和倫理所禁止或至少會做出否定性評價的用法,包括學生用來寫小論文在學業(yè)上蒙混過關(guān),媒體或自媒體用來編織真假難辨的假新聞以吸引眼球,需要做應(yīng)酬性講話或報告的各行業(yè)人士用來生成講話內(nèi)容。Sora這樣的文生視頻工具不僅不會解決上述問題,反而加重了真實性和可靠性查驗的成本,畢竟“有圖有真相”“有視頻有真相”之類過去的真實性判斷方法,面對這樣的工具已經(jīng)不起作用了。

但比作為炒作而煙消云散更糟糕的,是消費主義的生成式人工智能真正落地并得到廣泛使用的情況,我稱之為地獄級噩夢(Hell)。OpenAI(以及背后的金主微軟)用ChatGPT和Sora來向世人展示生成式人工智能的奇跡,是一種概念證明,就像時裝秀一樣:這種展示“不會顯示龐大的機器,沒有人類員工,沒有資本投資,沒有碳足跡,而只有一個具有超凡脫俗技能的基于抽象規(guī)則的系統(tǒng)。魔法和奇跡的敘事在人工智能的歷史中反復出現(xiàn),將聚光燈打在速度、效率和計算推理的壯觀展示周圍”。我們只要參觀過任何一個為訓練AI提供支撐的數(shù)據(jù)中心,了解過大型語言模型的訓練過程,就知道AI也有“沉重的肉身”,有龐大的服務(wù)器陣列和“大裝置”,有數(shù)以萬計從事著煩瑣枯燥的數(shù)據(jù)標注、校訂、評估和編輯工作的當代藍領(lǐng),更不用說程序員了,以及算力系統(tǒng)每運行一秒鐘就會消耗的大量電力和冷卻用水。更不用說它背后極不公平的分配邏輯:即便在所謂“市場主導”的美國,人工智能產(chǎn)業(yè)也受到政府的大力資助,“人工智能行業(yè)的擴張得到了公共補貼:從國防資金和聯(lián)邦研究機構(gòu)到公共事業(yè)和稅收減免,再到從所有使用搜索引擎或在線發(fā)布圖像的人身上獲取的數(shù)據(jù)和無償勞動力。人工智能最初是20世紀的一項重大公共項目,后來被無情地私有化,為金字塔頂端的極少數(shù)人帶來了巨大的經(jīng)濟收益”??杀氖牵皇崭畹摹熬虏恕眰冞€不斷驚嘆科技巨頭向它們展示的魔法,沉迷于“AI狂想曲”:幻想人工智能系統(tǒng)是脫離實體的大腦,獨立于其創(chuàng)造者、基礎(chǔ)設(shè)施和整個世界來吸收和產(chǎn)生知識。

在這個過程中,人類勞動的價值被不斷貶低,淪落到為機器提供輔助性服務(wù)的地步。ChatGPT所生成的似是而非的文本和Sora所生成的空洞虛幻的視頻,都受到贊嘆,而人類創(chuàng)作的各種內(nèi)容卻受到百般挑剔或者根本無人問津。這不僅影響到如今在世的所有人,還影響到教育和人類的未來:許多家長現(xiàn)在已經(jīng)懷疑讓孩子辛苦地學習各類知識到底有什么意義,畢竟未來大部分工作都不需要人了。雖然了解AI技術(shù)及其產(chǎn)業(yè)的人都知道這根本不是事實,但行業(yè)巨頭們通過魔法展示所營造出的共識性幻想,卻可能導致一個自我實現(xiàn)的預言:青少年可能越來越多地借助AI工具來蒙混過關(guān),在學習知識和訓練技能的過程中投機取巧,這樣人類工作的質(zhì)量會不斷趨近,并最終低于AI從事同樣工作的質(zhì)量,然后給了雇主們用機器取代人的理由。

為了避免滑入這個向下沉淪的螺旋,在當下的數(shù)字素養(yǎng)教育中應(yīng)該更多地納入對AI進行人文和社科反思的內(nèi)容,而不是直接接受行業(yè)巨頭們編織的敘事。要讓公眾理解人工智能不是一種客觀、通用或中立的計算技術(shù),不能在沒有人類指導的情況下做出決定。AI系統(tǒng)深深嵌入人類社會的政治經(jīng)濟結(jié)構(gòu)和法律制度中,由人類的個體、商業(yè)組織和政府來決定它們做什么和怎么做。雖然AI與其他完全被動的由人類完全控制的工具不同,能夠在與人類互動的過程中學習和自我演進,但它仍然是一種工具,是在人類設(shè)定目的的前提下尋找最優(yōu)手段的工具。因此,我們不能放棄對目的的追問和公開討論,否則我們的命運可能不是被AI控制,而是被掌握AI的人控制。微軟控制下的OpenAI,就是這樣一個有輿論塑造能力的實體。

成功的企業(yè)都是善于講故事的企業(yè),公眾很容易被它們標榜的價值所迷惑,因為它們實際上所做的事情對于公眾來說是不透明的。OpenAI對自己的定位是:“我們是一家人工智能研究和部署公司。我們的使命是確保通用人工智能造福全人類。我們正在構(gòu)建安全且有益的通用人工智能,但如果我們的工作幫助其他人實現(xiàn)這一成果,我們也將認為我們的使命已經(jīng)完成。”顯然,OpenAI試圖為自己樹立開源、無私并服務(wù)于公共利益的“人設(shè)”。2015年,OpenAI作為一家非營利性的科研實驗室而注冊成立,一開始,它將自己的宗旨表述為“為每一個人而不是股東創(chuàng)造價值”。為此,它鼓勵所有雇員“發(fā)表自己的作品,無論是以論文、博客日志還是代碼的形式”。這與營利性公司極端重視知識產(chǎn)權(quán)和商業(yè)秘密的做法截然相反。它還宣布將與全世界共享自己獲得專利的算法。但即使在這個最初的階段,OpenAI也沒有兌現(xiàn)自己的承諾,沒有形成開放的治理結(jié)構(gòu)、民主或合作式的工作機制,也沒有開放數(shù)據(jù)或允許外部開發(fā)者接入和使用研發(fā)大模型所需的高成本資源。實際上,它的創(chuàng)始人中只有埃隆·馬斯克真正信奉開放的宗旨,但他的想法被稱為“馬斯克讓AI自由發(fā)展的瘋狂計劃”。在接受《連線》(Wired)記者采訪時,當時的OpenAI主席格雷格·布洛克曼說:“把你做的所有研究都公開,并不見得是一種最好的方法……我們會產(chǎn)出很多開放的源代碼。但我們也有很多不想馬上發(fā)布的東西。”

保護商業(yè)秘密的立場,在2019年發(fā)布GPT-2之后就占據(jù)了上風。這一年3月,OpenAI正式宣布放棄非營利的法律性質(zhì),轉(zhuǎn)型為一家“設(shè)利潤上限的”營利公司,這個上限就是首輪投資者不能獲得超過其投資額100倍的回報。在接受了微軟的10億美元投資之后,OpenAI將GPT-3大模型授權(quán)給微軟獨家使用,之后的所有大模型也都為微軟所獨享。雖然從法律上OpenAI并沒有并入微軟,但它實際上已經(jīng)成為后者的一個研發(fā)部門。正因如此,在2023年的OpenAI首席執(zhí)行官換人風波中,微軟發(fā)揮了決定性的影響力。也因為如此,馬斯克最近在加州舊金山初審法院提起訴訟,主張該公司違背了承諾,侵犯了自己作為創(chuàng)始人之一的權(quán)利。

OpenAI與微軟的整合,會進一步強化微軟在操作系統(tǒng)和生產(chǎn)力工具領(lǐng)域的壟斷地位。實際上,先進入開源平臺成為它的重要開發(fā)者和用戶,然后利用自己的算力和數(shù)據(jù)優(yōu)勢吸引開源平臺上的開發(fā)者為自己服務(wù),最終使開源平臺私有化為自己的一部分,是包括微軟在內(nèi)的數(shù)字巨頭常用的策略。2018年,微軟收購了全球開發(fā)者創(chuàng)建、存儲、管理和共享代碼的平臺GitHub,該平臺有超過1億的軟件開發(fā)者用戶,同時也是全球最大的源代碼托管商。作為一個擁有超過20萬名員工和龐大的官僚機構(gòu)的巨型企業(yè),微軟的管理層認識到企業(yè)內(nèi)部缺乏人工智能領(lǐng)域的創(chuàng)新力。將OpenAI留在微軟外部并享有它的專屬服務(wù),對微軟來說是一種新的或許更明智的策略。得到OpenAI的專屬服務(wù)后,微軟已經(jīng)將GPT-4等大模型整合到自己的現(xiàn)有產(chǎn)品和服務(wù)中,比如搜索引擎必應(yīng)和生產(chǎn)力工具Office軟件。在搜索引擎方面,新的必應(yīng)雖然為微軟贏得了八倍的下載量,但未能撼動谷歌的絕對霸主地位。而在微軟占據(jù)市場支配地位的生產(chǎn)力工具領(lǐng)域,基于大模型的AI助手Office Copilot或許會進一步強化其壟斷地位,并保持遙遙領(lǐng)先。未來,微軟還會將大模型整合進Windows操作系統(tǒng)。

壟斷會帶來壟斷者任意定價和服務(wù)質(zhì)量下降,損害消費者福祉。使用過Windows的用戶都很清楚它是多么不好用。重資本入場的平臺企業(yè),一開始會投入巨額資金補貼用戶、改善用戶體驗、開展研發(fā)和創(chuàng)新活動,一旦市場支配地位形成,便會實行壟斷者定價,降低服務(wù)質(zhì)量。在存在自然壟斷的領(lǐng)域(數(shù)字市場就是這樣一個領(lǐng)域),公共監(jiān)督和法定監(jiān)管通常優(yōu)于通過競爭實現(xiàn)的市場規(guī)訓。常見的監(jiān)管方法包括法定價格范圍、最低服務(wù)質(zhì)量標準、交互可操作性要求、可信數(shù)據(jù)環(huán)境標準、安全標準等。簡言之,就是采用規(guī)制+反壟斷的組合拳。

▍三

制度性引領(lǐng)和干預是確保AI的發(fā)展方向與人類目的對齊的主要方法,而人本主義應(yīng)當是我們討論發(fā)展AI的目的時所堅守的基本立場。有些人認為應(yīng)當放棄人類中心主義的立場,不應(yīng)當用人的局限性來限制人工智能的無盡疆域,包括承認它最終會變得遠比人更聰明、具有自我意識并最終統(tǒng)治人或消滅人。這種觀點和某些極端生態(tài)主義者所主張的“消滅人類保護地球”異曲同工,屬于超出理性討論范疇的價值選擇,也是不會被大多數(shù)人接受的一種價值選擇。人本主義立場要求擺正AI的工具地位,只發(fā)展那些輔助人類活動的AI技術(shù)。

弗蘭克·帕斯奎爾提出的“新的機器人法則”,就是對這樣一種基本觀點的系統(tǒng)表述:“1. 機器人系統(tǒng)和人工智能應(yīng)當輔助職業(yè)人士,而不是取代他們;2. 機器人系統(tǒng)和人工智能不應(yīng)當假冒人類;3. 機器人系統(tǒng)和AI不應(yīng)當加劇零和的軍備競賽;4. 機器人系統(tǒng)和人工智能必須顯示其創(chuàng)造者、控制者和所有權(quán)人的身份?!边@些原則都有相當強的現(xiàn)實針對性,比如第一條實際上針對的是數(shù)字科技時代的一個日益顯著的事實——勞動者的“去技能化”。大量過去需要人類專業(yè)技能完成的工作被算法取代了,留給人類的往往是那些不需要創(chuàng)造性思維和專業(yè)知識,而只需要身體技能和直覺的工作,比如送外賣、送快遞。這背后的技術(shù)原理是“莫拉維克悖論”:“讓計算機在解決智力測驗問題或玩跳棋方面表現(xiàn)出成人水平相對容易,但在感知和運動方面讓計算機具有一歲兒童的技能卻很困難或不可能 。”原因很簡單:智力測試或下棋是在人為設(shè)定的邊界和規(guī)則范圍內(nèi)進行可窮盡的推演,而不是去適應(yīng)沒有給定邊界且充滿不確定性的物理環(huán)境并在其中生存下去。后者是人類經(jīng)過漫長的進化過程才習得并銘刻在DNA當中的,人的身體運動技能和直覺感知正是其表現(xiàn)。

到了人工智能時代,人所創(chuàng)造的機器逐漸主導了人類需要運用智力才能完成的那些工作,人自己卻只剩下那些憑本能就能完成的工作,這是技術(shù)原理和政治經(jīng)濟原理結(jié)合后的產(chǎn)物。由于腦力工作者受教育時間長,工資相對較高,為了節(jié)約勞動力成本,資本家當然樂于用人工智能取代人來從事此種勞動。于是,在外賣和快遞行業(yè),我們可以看到算法充當著管理者和調(diào)度員的角色,精準規(guī)劃和控制著人類勞動者的路線和時間。

控制論之父維納早在1950年便預見了機器不斷侵蝕人類生產(chǎn)活動空間的前景。在《人有人的用處》一書中,他指出:“現(xiàn)代人,尤其是現(xiàn)代美國人,盡管他可以有很多‘懂得如何做’的知識,但他的‘懂得做什么’的知識卻是極少的。他樂意接受高度敏捷的機器決策,而不想較多地追問一下它們背后的動機和原理為何?!彼赋觯祟惷鎸Φ耐{不是機器,而是人本身。如果我們不去追問和思考“要做什么”,而是任由機器和機器的設(shè)計者把我們嵌入到生產(chǎn)流水線上,那么人也就變成了機器的一部分:“作為機器的一個元件來利用的東西,事實上就是機器的一個元件。”維納曾經(jīng)的老師、哲學家羅素給這本書寫了一篇題為《人還有存在的必要嗎?》的書評,其中寫道:“有些事情是機器無法做到的。它們無法創(chuàng)作偉大的藝術(shù)、偉大的文學或偉大的哲學;它們無法發(fā)現(xiàn)人類心靈中秘密的幸福源泉;它們對愛和友誼一無所知?!?a class="keyword-search" >羅素認為智能化的機器應(yīng)當被用于將人類從生存壓力所迫的勞役中解放出來,讓所有人都能享有原本只有貴族或少數(shù)社會精英才能享有的“奢侈品”——閑暇,從而去從事那些只有人類才擅長做的創(chuàng)造性的以及帶來幸福感的事情。

但我們需要進一步發(fā)展這種論證。首先,人不必通過證明自己“有用”來證明自己有存在的必要。康德所說的“人是目的,不是手段”,應(yīng)該是人本主義思考的出發(fā)點。一方面,即便機器已經(jīng)能夠做人類需要運用智力才能做的大多數(shù)事情,人類也應(yīng)該通過制度設(shè)計來確保人的處境不會惡化。另一方面,更重要的是,我們需要從一開始就想清楚,什么樣的人工智能發(fā)展方向是值得追求的,是不會降低大多數(shù)人的生活水平和幸福感的——換句話說,是符合公共利益的。顯然,堅持人本主義立場的人都不會說,我們發(fā)展人工智能是為了讓它最終變得比人更聰明,可以擺脫人的控制并追求自己的目的,無論這種目的是否與人類的目的相吻合。我們創(chuàng)造機器不是為了讓它像人,畢竟世界上已經(jīng)有了數(shù)十億活生生的人;不是為了讓它去從事那些我們從中可以獲得意義感和成就感的事情;而是為了讓它幫助我們?nèi)プ瞿切┈?、勞累、重復但又必要的工?/strong>,以及幫助我們?nèi)プ瞿切┪覀兿胱觯绻唤柚悄芑ぞ呔妥霾坏交蛘卟荒茏龅煤芎玫氖虑?。簡單地說,就是要發(fā)明和發(fā)展有用的人工智能。

其次,從人本主義立場出發(fā),我認為目前OpenAI所代表的生成式人工智能發(fā)展道路已經(jīng)走錯了方向。ChatGPT和Sora這種類型的生成式人工智能工具,是在做人類平均水平的創(chuàng)作者能夠做而且愿意做的事情,同時由于缺乏人類特有的目的性和環(huán)境適應(yīng)性,它們所生成的內(nèi)容只能滿足娛樂和蒙混過關(guān)的需求,而無法用于追求真實性、嚴謹性和真誠性的內(nèi)容生產(chǎn)。

阿努·布拉德福德認為存在三個“數(shù)字帝國”,它們對數(shù)字經(jīng)濟有著完全不同的構(gòu)想,并因此發(fā)展出三種全然不同的監(jiān)管模式:一是美國的市場驅(qū)動模式,以促進創(chuàng)新為導向,鼓勵贏家通吃,甘冒巨大的風險;二是中國的國家驅(qū)動模式,以發(fā)展和穩(wěn)定為兩大價值,試圖在兩者之間維持平衡;三是歐盟的權(quán)利本位模式,試圖在數(shù)字技術(shù)不斷侵蝕人類隱私和自主性的現(xiàn)實處境中維系人的尊嚴和權(quán)利。這些“數(shù)字帝國”之間的斗爭有兩個主戰(zhàn)場:一是橫向的國與國之間的斗爭,包括技術(shù)、商業(yè)模式和規(guī)范等多個層面;二是縱向的國家與企業(yè)(包括本國科技企業(yè)和在本國運營的外國科技企業(yè))之間的斗爭。

另有學者指出,由于包括人工智能在內(nèi)的數(shù)字科技及其商業(yè)應(yīng)用的全球化特點,數(shù)字科技強國往往主張跨境的數(shù)據(jù)自由流動和人工智能部署,以為本國數(shù)字巨頭獲取全球數(shù)據(jù)和占領(lǐng)全球市場創(chuàng)造制度條件,此種戰(zhàn)略被稱為“數(shù)字帝國主義”(digital imperialist),美國是其唯一代表;而缺乏本土數(shù)字科技巨頭的國家,則往往通過強調(diào)個人數(shù)據(jù)權(quán)利保護來限制數(shù)據(jù)的跨境流動,同時也限制境外數(shù)據(jù)企業(yè)在本地的數(shù)據(jù)獲取和人工智能部署,以維護數(shù)據(jù)主權(quán),此種戰(zhàn)略被稱為“數(shù)字主權(quán)主義”(digital sovereigntist),以歐盟各國為主要代表。

中國香港學者張湖月則將中國的人工智能監(jiān)管比喻成高空疊羅漢走鋼絲這樣的雜技表演,既要持續(xù)前進,又要保持動態(tài)微妙平衡,還要承受高空墜落恐懼的壓力。但這可能恰恰是人工智能監(jiān)管該有的樣子。任由市場主導,則投資者利益驅(qū)動下的人工智能技術(shù)形態(tài)和商業(yè)模式,會進一步收割大眾用戶的注意力、時間、金錢和智商,還不用說馬斯克所擔心的人工智能失控帶來的人類生存危機。如果繼續(xù)堅持傳統(tǒng)的個人權(quán)利本位,那么必須利用海量數(shù)據(jù)來訓練的人工智能及其產(chǎn)業(yè)將無從發(fā)展。但不發(fā)展并不意味著免于被數(shù)字巨頭利用和沒有風險,而是往往會走向被美國的數(shù)字巨頭利用和收割,正如歐洲的現(xiàn)實處境那樣。

本文原載《文化縱橫》2024年4月刊,原題為《人工智能不應(yīng)成為資本的“獨角戲”》。歡迎個人分享,媒體轉(zhuǎn)載請聯(lián)系本公眾號。