本文目錄:
一、智能的本質(zhì)之一就是錯誤和不可靠
二、人類創(chuàng)造的機器本質(zhì)上是通過限制甚至消除人類智能——“反智能"實現(xiàn)的
三、汽車安全問題
四、無人駕駛能否實現(xiàn)?
本文雖長達近萬字,但有很多完全顛覆世人和人工智能業(yè)界的觀點,值得每一個想活下來的車友和相關行業(yè)的從業(yè)者們認真仔細地反復讀完。
剛看到網(wǎng)上熱傳的小米SU7高速上發(fā)生事故起火致車上3人遇難的消息,三個剛要畢業(yè)的女大學生在考編途中車禍身亡。這樣的消息不免讓人心如刀絞般難受,對逝者家屬和戀人深感同情。只是此事的令人極度遺憾之處,不能不讓我再次強烈呼吁對于人工智能無人駕駛一定要正確認識。希望借此機會再次討論一下自主人工智能無人駕駛絕對不可能成功的問題。
我們當然不能去對此事件本身作任何結(jié)論性的判斷,這個只有相關部門才能根據(jù)實際調(diào)查數(shù)據(jù)作出。但本文會盡可能普及所有與此相關的汽車安全標準知識、人的智能以及人工智能的本質(zhì),希望能使人們放棄一切不切實際的幻想和錯誤看法。
關于本文的核心觀點,在十多年前無人駕駛概念剛開始熱炒時,我因當時做投資的關系,就在各種場合,包括投資會議邀請我作演講嘉賓講人工智能,以及寫媒體文章時就只要有機會就一再地反復強調(diào)過。要理解清楚這個問題,必須把與它們相關的所有要素都理解清楚。在其中每一個要素的理解上,可能全世界比我強的人都有無數(shù),但要能把所有要素都合在一起理解清楚的人則鳳毛麟角,這種通曉能力必須要由我創(chuàng)立的第三代科學方法的支持。我在四十年前上大學時就開始研究人工智能,30多年前上研究生期間就做過圖像與視頻的人工智能識別與衛(wèi)星云圖的人工智能模式識別工作。所以在這個領域全世界說話比我更權(quán)威的人可以用一只手數(shù)出來。關于這個問題與其他問題不同,任何網(wǎng)友不要拿自己的性命來與我爭辯。

一、智能的本質(zhì)之一就是錯誤和不可靠
要搞清楚為什么人工智能無人駕駛絕不可能成功,首先要理解什么是智能。關于這個問題,可以說目前全世界人工智能業(yè)界的理解全都是錯的。舉一個關鍵的例子,現(xiàn)在最熱的人工智能大模型存在幻覺,有很多人工智能開發(fā)者就說他們已經(jīng)解決了幻覺問題。但要理解,從本質(zhì)上說,幻覺就是人類智能的最重要體現(xiàn)之一。人類與動物最大的不同之一,就是可以去創(chuàng)造現(xiàn)實世界沒有的東西?;糜X,從另一角度說就是想象、創(chuàng)造。
現(xiàn)代智人進化的一個重要標志就是大腦皮層進化出想象的能力。南非的布隆伯斯洞穴(Blombos Cave)在約 10 萬年前的地層中發(fā)現(xiàn)了刻有幾何圖案的赭石(礦物顏料),可能用于身體裝飾或符號標記。另外還有穿孔貝殼,推測為早期首飾,暗示對 “美” 和象征意義的理解。這些發(fā)現(xiàn)表明智人已開始賦予物品非實用價值,是想象能力的早期體現(xiàn)。約 7 萬年前智人經(jīng)歷了一次認知飛躍,掌握了“虛構(gòu)故事” 的能力,也就是通過語言和符號構(gòu)建抽象概念(如神話、社會規(guī)則),這成為大規(guī)模合作的基礎。也正是在7萬年前,現(xiàn)代智人開始大規(guī)模走出非洲,迅速擴散至全球,伴隨復雜文化行為的出現(xiàn)(如精細工具、藝術、墓葬)。在此后全球多地的智人遺址上發(fā)現(xiàn)的巖畫中描繪現(xiàn)實世界存在但變形了、或現(xiàn)實世界中根本不存在的事物。
所以,如果解決了大模型的幻覺,那它就不是人工智能了。對于這些最基本的關于智能的哲學問題,業(yè)界從標志人工智能誕生的1956年8月的達特茅斯會議上就完全沒有搞清楚,尤其是被作為人工智能定義的圖靈測試標準(1950年提出)本身就是大錯特錯的。
為什么人類能夠進行創(chuàng)造?創(chuàng)造從另一個角度說就是出現(xiàn)幻想、幻覺、錯誤。因此,要想獲得具備創(chuàng)造能力的人工智能,就要允許它出現(xiàn)幻覺,幻覺越大,創(chuàng)造性就越多,雖然這些創(chuàng)造出來的東西未必是有價值的?,F(xiàn)在的人工智能大模型可以一本正經(jīng)地胡說八道,反過來去看看人類,是不是也這樣?
目前所采用的所有人工智能技術,都是一種概率性的計算結(jié)果,必然存在不可靠的地方。無論最早的模式識別,后來的卷積神經(jīng)網(wǎng)絡,深度學習,還是現(xiàn)在的大語言模型,全都是一種概率性的計算結(jié)果。既然是一種概率性的東西,就一定存在出錯的概率,關鍵問題是你很難確定它什么時候會犯錯誤。
所以,用人工智能去創(chuàng)作一些圖片、視頻等藝術作品,反正只是一個你覺得美不美的東西,就算你覺得不美也無傷大雅。或者寫一些會議講話、演講、宣傳文案初稿,如果有不合適的、出錯的地方,你后期修改過來就是了。但如果單純用這樣的人工智能去實現(xiàn)高實時性的、高可靠的功能,絕對不可能成功的。
二、人類創(chuàng)造的機器本質(zhì)上是通過限制甚至消除人類智能——“反智能"實現(xiàn)的
人類創(chuàng)造的一切機器,它們本質(zhì)上不僅不是模仿人類的智能,反而全都是通過限制甚至消除人類智能等“反智能”的努力來實現(xiàn)的。正因為人有智能,所以人做事本質(zhì)上就不可靠,也可以說智能本質(zhì)上就等同于不可靠。如果只能依靠人來做的工作,就必須通過對人類進行訓練、甚至軍事化的高強度嚴格訓練來限制人類的智能,讓人類機器化,由此才能提升做事的可靠性。人類之所以要發(fā)明各種機器,原因是因為兩個:一是人類能力大小的限制,需要通過機器來提升技術能力。另一個就是通過限制、甚至消除人類的智能等反智能工作,來解決人類做事的不可靠性。前面一個是做加法,后面一個本質(zhì)是做減法。
人類的訓練是什么?就是消除人類隨心所欲的做事習慣,也就是機器化。無論對此讀者聽起來是否舒服,必須明白它本質(zhì)上就是這樣。人類科技文明的進步就是在約束、限制、甚至極力消除智能等“反智能”的過程中發(fā)展起來的。
企業(yè)管理,就是盡最大可能地用管理規(guī)則去限制員工個人的智能,是反人性的東西。
所以,不要以為智能絕對就是好事情,在絕大多數(shù)情況下它不是好事情,是人類文明創(chuàng)造過程中要盡最大努力去限制和消除的東西。
那我們研發(fā)人工智能技術是為什么?是為了提升復雜工作情況下的可靠性。如果是簡單工作,直接上機器就得了。
人工智能業(yè)界最大的錯誤認知,就是盡最大努力讓機器去模仿人類的一切方面、盡最大可能讓它“象人”,這個是大錯特錯的,從圖靈開始就大錯特錯了。2023年初,當ChatGpt剛剛火爆出圈的時候,我就寫文章潑涼水提醒人們注意,參見。其中就提到人工智能的本質(zhì):
人工智能 = 有效的人工智能 + 人工愚蠢 + 人工不靠譜(不可預測、可靠性差)


如不能盡知人工智能之不可靠者,亦不能盡知人工智能之利也。
人類發(fā)明各種機器時,最重要的標準就是可靠。當然,即使是工業(yè)級的可靠性,也不可能是100%絕對可靠的,但它們往往要求可靠性達到99.9999%這種小數(shù)點后面4個甚至6個以上9的級別?,F(xiàn)在的一切人工智能都遠遠不可能達到這樣的級別。這個是原理性的,不是技術問題。你再上1億億億億億張最強或十年、二十年、三十年后最強的算力卡都沒用。達不到的原因不是算力大小的問題,而是人們把問題本身就完全搞錯了。別聽外行的暢銷書作家說的什么人工智能奇點,那全是人類對人工智能的幻覺。
人類發(fā)明的一切機器之所以能達到那么高的可靠性,不是因為人類發(fā)明的技術能力本身能強到那個程度,而是對問題進行了足夠的簡化。只有將問題簡化到足夠簡單的程度時,才可能實現(xiàn)相應的可靠性。所以,工業(yè)級可靠性的實現(xiàn),本質(zhì)上主要不是靠工作機本身技術能力的提升(雖然這種提升也會有很大幫助),而是靠對問題的簡化能力。前一個是做加法,后一個是做減法。
可靠性 = 對問題的簡化 = 反智能(對智能的限制和消除)
但是,人工智能的研究在基本邏輯和哲學上就完全相反,他們不是去首先簡化問題,而是把問題一上來就搞到“純天然”(如“自然語言”等)的最復雜程度,然后想在這種最復雜的前提條件下去實現(xiàn)人工智能,所以它當然就不可能有太高的可靠性。
這就是為什么大量人工智能在秀的時候可能都很漂亮,因為秀的時候已經(jīng)把問題進行高度簡化了。但他給人們帶來的想象卻是在“純天然”的、沒有任何簡化的條件下去實現(xiàn)這些功能,那怎么可能靠譜呢?
今天所有人工智能去秀的東西一點都不新鮮,我在一開始研究人工智能的40年前全都見過,無論是無人駕駛還是人形機器人,早就有大量的人做過。20世紀80年代日本的第五代計算機計劃就是想研發(fā)“真正的人工智能”,當時相伴隨的有一大批研究人形機器人的公司。但所有這些努力全都失敗了,沒有一個成功的。
宇樹的人形機器人雖然在春晚上亮相引發(fā)全社會高度關注和熱議,但我可以確定地告訴大家:這東西就是一個純粹的玩具,不可能真拿它來干實際的工作。千萬別想象著未來可以有這種機器人保姆把家務活都能干了。那同樣是一種人類的幻覺。
早在宇樹機器人被人們關注之前,就曾有一個國內(nèi)主流高科技公司的CTO計劃研究人形機器人來找我咨詢。我很清楚地告訴他:純粹的人形機器人絕不可能有商業(yè)模型,不可能成功的。原因和道理很簡單,我說您是CTO,在做任何產(chǎn)品之前您要做的第一件工作是什么?—— 產(chǎn)品定義。
非常清楚地確定其要實現(xiàn)的功能、性能等量化的技術指標。
確定實現(xiàn)它們的技術能力和使用條件。
以此為基礎進行元器件和技術方案的選型
確定產(chǎn)品成本。
其他。
這種實現(xiàn)可不是只在特定條件下秀一把,而是要在很明確的實際應用場景里具有極高工業(yè)級可靠性地實現(xiàn)它們。同時,為了避免使產(chǎn)品過于復雜化,就得對應用場景作一定的嚴格要求和限制(溫度、濕度、空氣潔凈度、環(huán)境條件、使用條件、操作規(guī)范等等),并在產(chǎn)品說明書中明確標示。如果突破這種限制,那就是使用者的責任而不是廠家的責任。
但是,所有人形機器人在研究的一開始有明確的產(chǎn)品定義嗎?全都沒有,這哪是在做產(chǎn)品?產(chǎn)品研發(fā)的失敗往往就是產(chǎn)品定義不清導致目標失控,沒有明確知道自己到底要干什么,由此就會陷入一個財務的無底洞。人形機器人研究者潛意識中指望開發(fā)出一種與人一樣無所不能,外形也象人的機器,這就很容易從一開始就使產(chǎn)品目標陷于無邊無際的狀態(tài)了。
今天宇樹人形機器人和所有其他的人形機器人能秀出來的所有功能,40年前的日本公司開發(fā)的人形機器人全都秀過,沒有任何新鮮的。只不過是過一段時間人們把前面失敗的全忘掉了,就又來秀一遍,因為秀這種人形機器人的確很吸引人。工程師們做一般的產(chǎn)品都會本能地按規(guī)矩進行產(chǎn)品定義,但凡遇到人工智能的問題時,就很容易犯迷糊,把作為工程師最基本的普遍規(guī)范和原則全忘掉了。
日本科技發(fā)展在上個世紀80年代的全面失敗和掉進大坑里,就是以癲狂的幻覺去搞全面的人工智能化開始的。今天中國對于人工智能也有些過熱,需要冷靜一下。

2025年春晚上的人形機器人舞蹈


20世紀80年代日本風行的人形機器人研究
過去幾十年間持續(xù)不斷的人工智能概念,也使得在春晚上出現(xiàn)相關主題早就不是第一次了。

1996年蔡明郭達小品中的人形機器人主題
這樣說并不是完全否定包括宇樹機器人在內(nèi)的所有人形機器人。我們還是強調(diào),在研發(fā)任何產(chǎn)品之前,一定要清楚產(chǎn)品研發(fā)的基本規(guī)范。如果只是一種研究,提升人工智能的能力和水平,不是要馬上開發(fā)出特定的產(chǎn)品,那沒問題。但如果是要定位于實際應用的產(chǎn)品,就一定要明白前述基本的原則。
掃地機器人,洗菜機器,送餐機器人甚至成人玩偶類的人形產(chǎn)品等之所以成功,是因為它們在產(chǎn)品開發(fā)之前都進行了嚴格的產(chǎn)品定義。不要去幻想能實現(xiàn)《非誠勿擾3》里面舒淇扮演的那種人形機器人。同樣不要去幻想可以完全靠自主人工智能無人駕駛的汽車。

千萬千萬記?。?/strong>
人類的智能在絕大多數(shù)情況下是極其有害的、是人類科技文明最大的毒藥。人類文明的進步只在少數(shù)情況下受益于人類的智能,絕大多數(shù)情況下是靠反智能獲得真正的進步。
制定規(guī)則、標準、紀律、進行嚴格的產(chǎn)品定義等等,這些工作都是反智能、反人性的。
交通的安全靠什么?絕對不是靠人們想象中的人工智能,而是靠嚴格遵守交通規(guī)則,千萬別有任何自作聰明的地方。什么是交通規(guī)則?就是交通機器系統(tǒng)中的反智能和反人性,千萬千萬請牢記這一點,否則您終將有一天會葬生于車輪之下。
人類只有將自己通過嚴格訓練、嚴格遵守規(guī)則,把自己變成機器,才能在人類靠自己智能創(chuàng)造的反智能的機器文明洪流中保證自己的安全,才能去有效地使用那些機器。
以上對于理解人工智能是最為關鍵性的地方,也是我為什么一再強調(diào)我是全世界最權(quán)威的人工智能研究者、沒有之一的原因所在。如果讀者您能充分理解到這一點,我就不再說這句話了,您也是全世界最權(quán)威的人之一。
人工智能業(yè)界最大的愚蠢就是嚴重忽略了人類智能中有害和有毒的一面,把智能的一切方面全都當成好東西來進行簡單的模仿。
現(xiàn)在智駕的標準是GB/T 40429-2021《汽車駕駛自動化分級》。

這個標準把汽車智駕分為從L0到L5的六個等級。但是,這個分級標準是非常模糊和初級的,只是一個定性的描述,還不能直接變成產(chǎn)品量化的定義。其中還存在大量未研究清楚的哲學、科學與技術問題。因此,現(xiàn)在沒有任何廠家敢宣稱自己的車達到L3級別。這里面的關鍵是:L3意味著車已經(jīng)在一定條件下完全是由廠家的軟件在駕駛,那么出現(xiàn)事故邏輯上就必須由廠家負責任了。
智能對不同群體的有益或有害比例是不一樣的。在藝術家群體中,智能主要體現(xiàn)的是有益的一面。而在理工科群體中,智能只在系統(tǒng)設計、產(chǎn)品技術創(chuàng)新時是有益的,絕大多數(shù)情況下它是有害的東西。這也使不同的群體表現(xiàn)出思維方式的巨大差異,也是理工科群體可能不夠人性化,而藝術家群體在做實事時往往不大靠譜的原因所在。
理工男水平的最大體現(xiàn),就是其反智能的能力——定義產(chǎn)品、制定規(guī)則、制定流程、確定規(guī)程、制定標準......
我們切不要以為科技創(chuàng)新就是讓人性得到無限的發(fā)揮,大錯特錯。
科技創(chuàng)新是智能與反智能、反人性的有效平衡。
三、汽車安全問題
小米SU7事故事件出現(xiàn)后,很多人、包括死者家屬在討論為什么車門開不了,為什么會燃燒等等問題。也有人說根據(jù)國家安全標準,熱失控5分鐘內(nèi)不應發(fā)生燃燒和爆炸等。但很遺憾、可能也很殘酷,希望人們能理解,在全世界范圍內(nèi),車輛碰撞安全測試的最高速度是64公里/小時。這意味著什么?只要超過這個速度,無論出現(xiàn)什么情況都與廠家沒任何關系了。曾經(jīng)有一輛奔馳車發(fā)生事故,安全氣囊未打開,司機死亡。逝者的父親很悲憤,認為這么高級的豪車為什么在碰撞時安全居然還氣囊打不開?但事實很遺憾也很殘酷,如果碰撞時的速度超過每小時64公里,安全氣囊能不能打得開全憑運氣,打不開也沒廠家任何責任。越是豪車,可能安全性上越是值得懷疑,因為他們經(jīng)過的碰撞實驗測試可能越少。最頂級的豪車,可能根本沒機會進行足夠的碰撞測試,那需要撞毀成百輛的車進行測試才足夠。而那些最頂級的豪車總共的產(chǎn)量可能都沒有幾百輛。中東很多國家死亡率最高的因素就是車禍,原因就在于他們各種豪車太多了。
如果發(fā)生碰撞時車速都已經(jīng)超過100公里每小時,談論車門有沒有打開,電車與燃油車誰更容易燃燒等話題全都是沒有任何意義的。
所以,開車時你一定要擁有安全的剎車距離,并且時時刻刻準備剎車,這樣即使出現(xiàn)事故,碰撞時的速度也一定要減少到每小時64公里以下。
關于電車安全相關的國家標準有GB/T 31498—2021《電動汽車碰撞后安全要求》,GB 38031—2020《電動汽車用動力蓄電池安全要求》等。如果想系統(tǒng)了解相關信息,推薦一個資源:

https://openstd.samr.gov.cn/bzgk/gb/index
在這個網(wǎng)站里可以查到所有中國現(xiàn)行國家標準的全文。
GB 38031—2020 《電動汽車用動力蓄電池安全要求》是一個強制標準。它對動力電池安全的要求是什么呢?是在這個標準里的第5節(jié)。請看下面標準復制的拷貝:

看到這些要求讀者可能很疑惑,這么多條件下都要求電池不起火、不爆炸,那是不是只要電車出事故后起火爆炸就不合要求呢?很遺憾,你得仔細看這些要求對應的詳細實驗條件是什么。例如,與碰撞可能相關的實驗有電池擠壓實驗。

請注意8.1.7.3 c) 擠壓速度:不太于2mm/s。如果換算成每小時是多少呢?不是70公里,不是7公里,不是70米,也不是17米,而是7.2米?。?!什么意思:就是如果你的電車電池單體被擠壓的速度達到了7.3米每小時發(fā)生爆炸,請一定注意是每小時,不是每秒,也不是每分鐘,那就是符合國標要求的,沒廠家任何責任。對比一下, 蝸牛的爬行速度通常在每小時4米到8.5米之間。也就是說,如果動力電池被擠壓的速度超過了 蝸牛的爬行速度,發(fā)生爆炸了就沒廠家的責任。你是不是感到不可思議?當然,因為電車如果發(fā)生碰撞,首先會有車頭進行緩沖,動力系統(tǒng)也會對電池單體有嚴格保護。在一定的碰撞速度范圍內(nèi),事實上就不會擠壓到電池,因此電池就是安全的。但如果碰撞的速度突破了車頭的緩沖和電池包的保護擠壓了電池,基本上就沒救了。不要以為電車因此就不安全,燃油車可能更差。不然的話燃油車發(fā)展了上百年了,為什么碰撞標準還是停留在 每小時64公里?
GB 38031中規(guī)定了熱失控的電池安全規(guī)定,5.2.7 b)要求提供一個5分鐘的乘員逃生時間。但是,同樣道理,我們一定得注意這個要求對應的實驗條件是什么?

根據(jù)8.2.7.2熱擴散的規(guī)定,實驗條件在附錄C里。這個里面對實驗條件是怎么規(guī)定的呢?

請注意c.5.2試驗條件里最后一條,“試驗在室內(nèi)環(huán)境或者網(wǎng)速不大于2.5km/h的環(huán)境下進行”。 基本是靜止狀態(tài)下進行的測試。
GB 38031—2020標準是對電池單體的要求,那么從最終應用角度來說應該是整車碰撞安全要求。這個是在GB/T 31498—2021《電動汽車碰撞后安全要求》里規(guī)定的。

這個標準要求整車碰撞后30分鐘內(nèi)不爆炸、起火,是不是心中又升起很大的希望?很抱歉,道理還是一樣,你一定得清楚碰撞的具體實驗條件是什么。

正面碰撞的按GB 11551標準進行。這個標準是怎么要求的呢?

目前有效施行的是該標準的2014年版本。

碰撞實驗的速度要求是每小時50公里!??!是不是心又全涼了?全世界的所有汽車,包括新能源車和傳統(tǒng)燃油車的碰撞安全標準要求最高試驗速度就是每小時64公里。 明白了以上這些就可以理解到,如果想使用智駕功能,從安全角度說最好在速度為每小時64公里以下時使用。所以,智能停車等低速功能是相對可以放心使用的。如果超過這個速度,你一定不要完全指望智駕功能可以保證你的安全。有人在高速上居然開著智駕功能睡著了,只能說他這次撿了一條命。不是說在高速上完全不能用智駕,只是一定要明白必須在遇到任何險情時最終靠自己來減速。高速路上之所以每隔一段距離就會出現(xiàn)50、100、150、200米的距離標識,就是提醒司機車速與剎車距離的關系,使得在前方出現(xiàn)險情時提前進行減速。現(xiàn)在智駕只是一種輔助,不要指望它真的實現(xiàn)完全的無人駕駛。
智駕系統(tǒng)是靠激光和視頻攝像來獲得路況信息的。視頻信息需要通過人工智能技術去進行識別。如果識別前方有一個車輛,相對還比較容易。但如果高速路上有修路的情況,會提前很早有路牌進行提標。這種提示是給人看的,路牌上的警示信息人工智能可以識別嗎?
給大家一個相關的數(shù)據(jù)吧!人工智能圖像視頻識別目前應用量最大的就是道路監(jiān)控和停車場車牌號識別系統(tǒng)了。這種系統(tǒng)還只是識別比較規(guī)范的車牌信息,識別差錯率是多少呢?水平比較高的在千分之1到千分之5,如果能做到萬分之幾就已經(jīng)上天了。并且隨著芯片性能和算法不斷提升,要想繼續(xù)提升這個技術指標難如登天。所以大家開車時可能偶爾會出現(xiàn)你在有這種功能的停車場攔桿可能打不開,你得反復把車前后左右移動幾次才能被識別打開的情況。你能指望這種識別差錯率的系統(tǒng)可以實現(xiàn)在120公里每小時速度下能以小數(shù)點后4個9可靠性地識別道路邊上各種臨時路牌信息嗎?還是徹底死了這份心吧!
2024年,中國道路交通事故死亡人數(shù)為61,703 人,這一數(shù)據(jù)較 2023 年的 60,028 人略有上升,但整體仍處于近十年的相對穩(wěn)定區(qū)間(年均約 6 萬人)。2002年時,中國每年因道路交通事故死亡人數(shù)最高峰值數(shù)據(jù)為10.9萬人。根據(jù)聯(lián)合國世界衛(wèi)生組織2022年發(fā)布的報告,自汽車發(fā)明以來,死于車禍中的人數(shù)已經(jīng)突破5000萬人,并且每年還在以120萬左右的速度增加。這一數(shù)據(jù)已經(jīng)超過一戰(zhàn)的死亡人數(shù)總和。汽車是人類所有發(fā)明中造成的死亡數(shù)最大的,已經(jīng)快達到被稱為寡婦生產(chǎn)線的馬克沁機槍造成的死亡人數(shù)總和3千萬的2倍了。
汽車造成的死亡人數(shù)如此之高,最重要的原因就在于:每輛行駛中的汽車都有一個司機,而司機卻是具有智能的人。替代人去開車的,還是模仿人類智能的人工智能。知道汽車事故死亡率最高的人群是誰嗎?賽車手!早期F1方程式賽車手的車禍死亡率曾高達20%。2013年 11 月,在拍攝《速度與激情 7》期間,男主角保羅·沃克(Paul Walker)和友人羅杰·羅達斯(Roger Rodas)駕駛 2005 年款式的紅色 Porsche Carrera GT 保時捷跑車,以 160 公里/小時速度撞上邊欄,車體斷成兩半并起火爆炸,兩人當場被燒得面目全非。銀幕上演繹的是浪漫的《速度與激情》,現(xiàn)實生活告訴人們的卻是“速度與慘禍”。
一切開車時認為自己車技更牛,比別人更聰明,更有智能的,就是在玩死亡游戲。
作為汽車廠家,絕不應當為推銷自己的汽車有任何夸大智駕的能力,并且有義務宣傳本文的核心觀點,提醒司機相應的安全問題,否則對出現(xiàn)死亡事故至少是存在道義上的責任的。
現(xiàn)在的智駕能否使用呢?在嚴格約束的條件下是可以的。正好在寫這篇文章時,我與伙伴開車從河南到湖南參加一個展會,在路況比較清晰的情況下,使用智駕可以不用時時刻刻腳踩在油門上,只要手扶著方向盤就可以了。即使是這樣,也可以極大地減輕開車的勞累,有助于極大增加行車的安全性。我一般在高速上開非智駕的車,150多公里就開始感覺很疲勞了,但4月3號開車采用智駕功能,最遠一次性開了近300公里,基本沒感覺有勞累。另外,依靠智駕在換道口時更為可靠,人往往可能在復雜道口換錯道路。這些都是應用智駕的很大好處。但是,有一些原則必須要嚴格遵守:
手絕對不能長期離開方向盤。好的智駕設計會在你的手離開方向盤超過很短的時間,就會馬上提醒你,如果還沒有把手放在方向盤上,車應自動靠邊停車。
絕對不能睡覺。好的智駕汽車設計應當能發(fā)現(xiàn)并叫醒睡覺的司機。
遇到路況開始變復雜,尤其前方有車禍,修路等情況時,要迅速接管車輛,或做好接管的準備。
很多時候不是你自己的問題,而是會在路上遇到各種行車不規(guī)范的司機。如果后方有車輛在很近的距離超車并迅速在你前方并線,智駕不一定反應得過來,此時要及時踩剎車接管車輛。
四、無人駕駛能否實現(xiàn)?
本文批評自主智駕系統(tǒng)要實現(xiàn)L5級別的無人駕駛是不可能的,并不是說任何無人駕駛都一定不能實現(xiàn)。請注意我們的核心觀點:高可靠性主要是通過簡化問題來實現(xiàn)的。高速公路本身就是一種對交通問題的簡化。把道路修得路況盡可能簡單,以此實現(xiàn)高速行駛時的安全駕駛。
現(xiàn)在的智駕系統(tǒng)概念是自主式的無人駕駛理念。我一向推崇路車協(xié)同、車車協(xié)同式(車聯(lián)網(wǎng))的智駕。并且推崇首先定義和實現(xiàn)無人駕駛道路,而后才能來談無人駕駛。
例如,如果要馬上實現(xiàn)全路網(wǎng)路車協(xié)同可能比較困難,但先開發(fā)部分情況下的路車協(xié)同是相對容易實現(xiàn)并且投入不大的。此次車禍事件就是在修路的路段發(fā)生車禍。這種復雜路況發(fā)生車禍的幾率的確遠大于正常路況。現(xiàn)在高速公路管理系統(tǒng)都是按有人駕駛來進行規(guī)劃建設和維護的。修路時設計的提示牌都是給人看的,這樣一些車輛就有可能并不能有效接受相應的信息。如果是按無人駕駛道路概念來進行設計,那就要有路車協(xié)同的系統(tǒng)。當?shù)缆愤M行維修時,不能僅僅是設置給人看的道路提示牌,而是要有電子路牌,類似ETC這樣的無線信息傳遞系統(tǒng),直接把路況信息傳遞給無人駕駛汽車,以及導航系統(tǒng)。這樣的無人駕駛系統(tǒng)會得到工業(yè)級可靠性的完備路況信息,就可以作出工業(yè)級可靠性的駕駛決策。在這樣的路車協(xié)同基礎上,可以不斷增加越來越多的路車協(xié)同功能。
熱門跟貼