
當人工智能領(lǐng)域的頂尖人才競相讓技術(shù)更像人類思考時,伊隆大學的研究人員卻提出了相反的問題:人工智能將如何改變?nèi)祟惖乃季S方式?
答案是嚴峻的警告:許多技術(shù)專家擔心人工智能會使人類的核心技能變得更差,比如同理心和深度思考。
未來學家約翰·斯馬特在該大學近 300 頁的報告《人類的未來》中寫道:“就目前而言,我擔心,雖然越來越多的少數(shù)人將從這些工具中受益匪淺,但大多數(shù)人仍將把自主權(quán)、創(chuàng)造力、決策權(quán)和其他重要技能拱手讓給這些仍然很原始的人工智能。”該報告名為《人類的未來》 ,于周三發(fā)表。
這些擔憂出現(xiàn)在加速人工智能開發(fā)和應用的持續(xù)競賽中,該競賽吸引了數(shù)十億美元的投資,同時也得到了世界各國政府的懷疑和支持。科技巨頭們堅信人工智能將改變我們做所有事情的方式——工作、交流、搜索信息——而谷歌、微軟和 Meta 等公司正在競相打造能夠代表人類執(zhí)行任務的“AI Agent”。但專家在報告中警告稱,這樣的進步可能會讓人們在未來過度依賴人工智能。
人工智能的普及已經(jīng)引發(fā)了人們對人類如何適應這一最新技術(shù)浪潮的重大疑問,包括它是否會導致失業(yè)或產(chǎn)生危險的錯誤信息。伊隆大學的報告進一步質(zhì)疑科技巨頭的承諾,即人工智能的價值在于自動化機械、瑣碎的任務,以便人類可以花更多時間從事復雜、創(chuàng)造性的工作。
周三的報告還遵循了微軟和卡內(nèi)基梅隆大學今年發(fā)表的 研究,該研究表明使用生成式人工智能工具可能會對批判性思維能力產(chǎn)生負面影響。
“根本性的、革命性的改變”
伊隆大學的研究人員調(diào)查了 301 名科技領(lǐng)袖、分析師和學者,其中包括“互聯(lián)網(wǎng)之父”之一、現(xiàn)任谷歌副總裁的文特·瑟夫 (Vint Cerf)、華盛頓大學信息學院教授、前微軟長期研究員和項目經(jīng)理喬納森·格魯丁 (Jonathan Grudin)、前阿斯彭研究所執(zhí)行副總裁查理·費爾斯通 (Charlie Firestone) 以及科技未來學家兼 Futuremade 首席執(zhí)行官特雷西·福洛斯 (Tracey Follows)。近 200 名受訪者為該報告撰寫了全文論文。

超過 60% 的受訪者表示,他們預計人工智能將在未來 10 年內(nèi)以“深刻而有意義”或“根本性、革命性”的方式改變?nèi)祟惖哪芰?。一半人表示,他們預計人工智能將給人類帶來同樣多的改變,既有好的,也有壞的;而 23% 的人表示,這些改變將主要朝著壞的方向發(fā)展。只有 16% 的人表示,改變將主要朝著好的方向發(fā)展(其余的人表示,他們不知道或預計總體上不會有什么變化)。
受訪者還預測,到2035年,人工智能將對人類的12種特征造成“大多是負面的”變化,包括社交和情商、深入思考的能力和意愿、同理心、道德判斷的運用和心理健康。
報告稱,如果人們?yōu)榱朔奖愣絹碓蕉嗟叵蛉斯ぶ悄軐で髱椭?,例如完成研究和建立關(guān)系等任務,人類在這些領(lǐng)域的能力可能會惡化。研究人員寫道,這些技能和其他關(guān)鍵技能的下降可能會給人類社會帶來令人不安的影響,例如“兩極分化加劇、不平等加劇和人類能動性減弱”。
報告的作者預計只有三個領(lǐng)域會發(fā)生積極變化:好奇心和學習能力、決策能力、解決問題和創(chuàng)新思維與創(chuàng)造力。即使在當今可用的工具中,能夠生成藝術(shù)作品和解決編碼問題的程序也是最受歡迎的。許多專家認為,雖然人工智能可以取代一些人類工作,但它也可能創(chuàng)造出尚不存在的新工作類別。
人工智能的演變
報告中詳述的許多擔憂與技術(shù)領(lǐng)導者預測人們到 2035 年將如何將人工智能融入日常生活有關(guān)。

瑟夫表示,他預計人類很快就會依賴 AI Agent,這些數(shù)字助手可以獨立完成所有事情,從在會議上做筆記到預訂晚餐、談判復雜的商業(yè)合同或編寫代碼??萍脊疽呀?jīng)推出了早期的 AI Agent 產(chǎn)品——亞馬遜表示,其改進后的 Alexa 語音助手可以訂購雜貨,而 Meta 則讓企業(yè)創(chuàng)建人工智能客戶服務 Agent來回答其社交媒體平臺上的問題。
此類工具可以節(jié)省人們?nèi)粘9ぷ鞯臅r間和精力,同時還能為醫(yī)學研究等領(lǐng)域提供幫助。但瑟夫也擔心人類會“越來越依賴”那些可能出現(xiàn)故障或出錯的系統(tǒng)。
“你也可以預見到所有這些的脆弱性。例如,這些東西沒有電就無法工作,對吧?”瑟夫在接受采訪時說?!斑@些高度依賴的東西在工作時非常棒,而在不工作時,它們可能會非常危險?!?/p>
瑟夫強調(diào)了有助于區(qū)分人類與在線人工智能機器人的工具的重要性,以及高度自主的人工智能工具有效性的透明度。他敦促構(gòu)建人工智能模型的公司保留“審計線索”,以便他們查詢工具何時以及為何出錯。
Futuremade 的 Follows 表示,她預計人類與人工智能的互動將超越人們目前通常與人工智能聊天機器人交談的屏幕。相反,人工智能技術(shù)將被集成到各種設備中,例如可穿戴設備,以及人類可以大聲提問的建筑物和家庭中。
但隨著這種便捷的訪問,人類可能會開始將同理心外包給 AI Agent。
福洛斯在文章中寫道:“人工智能可能會接管善舉、情感支持、護理和慈善籌款?!彼a充說,“人類可能會對人工智能角色和影響者產(chǎn)生情感依戀”,這引發(fā)了“人們擔心,真誠、互惠的關(guān)系是否會被邊緣化,取而代之的是更可預測、更可控的數(shù)字聯(lián)系?!?/p>
人類已經(jīng)開始與人工智能聊天機器人建立關(guān)系,但效果好壞參半。例如,有些人創(chuàng)建了已故親人的人工智能復制品來尋求安慰,但年輕人的父母也采取了法律行動,因為他們表示,他們的孩子因與人工智能聊天機器人的關(guān)系而受到傷害。
不過,專家表示,人們有時間通過監(jiān)管、數(shù)字素養(yǎng)培訓以及優(yōu)先考慮人際關(guān)系來抑制人工智能的一些最糟糕的潛在后果。
美國創(chuàng)新基金會非常駐高級研究員理查德·雷斯曼在報告中表示,未來十年是人工智能“增強人類還是削弱人類”的轉(zhuǎn)折點。
賴斯曼寫道:“我們現(xiàn)在正被‘科技工業(yè)綜合體’的主導力量推向錯誤的方向,但我們?nèi)杂袡C會糾正這種狀況?!?/p>
免責聲明:
本文所發(fā)布的內(nèi)容和圖片旨在傳播行業(yè)信息,版權(quán)歸原作者所有,非商業(yè)用途。如有侵權(quán),請與我們聯(lián)系。所有信息僅供參考和分享,不構(gòu)成任何投資建議。投資者應基于自身判斷和謹慎評估做出決策。投資有風險,入市需謹慎。
關(guān)注我們,一起探索AWM!
2025-03-24
2025-03-25
2025-03-22
熱門跟貼