目前國內無人駕駛達到什麼水準?美國到底領先中國多少?

來源:酷知科普網 3.22W

下面就讓小編來為大家講解一下目前國內無人駕駛達到什麼水準?美國到底領先中國多少?希望能幫助到大家。現在許多車上已經配備了所謂的半自動駕駛技術,那我們離真正的無人駕駛還有多遠距離?美國已經逐漸將區域化試執行無人駕駛,似乎美國無論在技術還是政策方面都已經走在這個領域的前面,和美國之間的差異和差距又是什麼?

操作方法

我認為,自動駕駛是早晚的事,現在看來,自動駕駛的普及速度比預想的還要快。

自動駕駛一旦大規模普及,很多功能將會成為現實,比如:車輛可以像動車一樣編組執行以實現同步高速度的交通,車與車之間的通訊和互動可以實現高效的通行效率和極低的事故率,甚至不需要紅綠燈及各種複雜的交通標誌標線系統,總體的交通效率和安全性將大大提高,是革命性的。

用不了多久,就會有人說:“開車這麼危險的事情,以前竟然讓人去做,這簡直太嚇人了,不可想象。”,當然“女司機”這個說法可能也要退出歷史舞臺了。

很多朋友擔心交通基礎設施以及法律責任等問題,我覺得這點不用太擔心,自動駕駛普及的過程,也是相關的交通技術設施和法律不斷完善的過程。

今天主要分析一下自動駕駛的技術層面,其他相關的道路設施及法律責任等問題在這裡不討論了。

首先簡單說一下自動駕駛的原理。

所有的控制系統都是由感測器、控制器和執行器組成的,從這個角度上講,自動駕駛原理其實和人工駕駛是一樣的,我們用眼睛觀察路況,而自動駕駛則是使用鐳射雷達、超聲波雷達、攝像頭、GPS等感測器來觀察路況確定位置。我們用大腦做判斷,自動駕駛當然就是用電腦作為控制器來判斷。然後我們通過手腳控制車輛方向盤、加速和剎車,自動駕駛也是根據電腦的輸出直接去控制車輛。

看上去很簡單,但是要深入分析的話,特別是汽車這麼危險的東西,要想保證自動駕駛的可靠性的話,其實非常複雜。

感測器方面,鐳射雷達和超聲波雷達當然都是用來測距的,理想狀態下車輛可以探測到周圍所有的障礙物並算出這些障礙物的距離,但是實際上,這些障礙物很可能會被誤判,比如風中飛舞的塑料袋會被判斷為障礙物,甚至雨滴有可能被認為是障礙物。攝像頭更不用說了,單目或多目攝像頭利用計算機視覺讓自動駕駛汽車實時識別交通訊號燈、交通標誌、車道線、近距離低速障礙物等,同時加上與道路基礎設施以及雲端資料庫的通訊,實現諸多功能。但是,今年特斯拉自動駕駛出現的死亡事故很大程度上與攝像頭有關係。在逆光和大光比的情況下,攝像頭的分辨能力就降低了,當然還有低照度情況,這個受限於當前的影象感測器技術,懂攝影的朋友都會知道,機器視覺本來就是一個複雜的東西,同時攝像頭有可能被灰塵、眩光等各種不利因素影響,所有從可靠性上講,依然存在很多問題。當然除了這些判斷路況的感測器,汽車還有車速、加速度、轉角度等各種感測器。

控制中心方面,接收這麼多感測器的資訊,進行分析處理,得出控制策略,下達控制指令,並且這個過程必須實時,所以控制中心必須具備高效能的實時運算能力。就硬體來說,自動駕駛的過程可容不得宕機,所以一般硬體都要用滿足高可靠性高效能的實時運算。就軟體來說,演算法就太重要了,自動駕駛的軟體演算法必須實現路徑規劃、躲避障礙物、加速度控制、姿態控制等等多種功能,但是目前並沒有哪種控制方式能實現完美的無人駕駛,很多時候廠家都會採用多種方式共同處理,比如模糊控制配合遺傳演算法、深度學習等等。作為也寫了好多控制軟體的答主來說,感覺這句話說的真是太對了:“99%的情況使用1%的程式碼就可以應付,而剩下的1%的情況需要用99%的程式碼去處理。”

執行器方面,一旦得到了控制指令,讓汽車去執行,這一部分就目前來說還算是不錯的,特別是電動車。電動機極高的效率、優良的調速效能、寬泛的調速區間決定了電動車更容易實現自動駕駛,而普通汽車經過多年的發展,其發動機自動控制系統、自動變速箱、電子制動等系統的控制也已成熟,ESP、TCS、定速巡航、自適應巡航等系統也已經廣泛使用,與自動控制系統對接並不麻煩。

下面說說我國的無人駕駛研究情況和美國的研究進展情況,然後看看差距。

國內

國防科大早在1992年成功研製出中國第一輛真正意義上的無人駕駛汽車。2007年,與一汽共同研發紅旗無人駕駛車,該車主要使用CCD影象感測器和鐳射雷達作為感測器,實現了高速路的無人駕駛。2011年國防科大自行研發的HQ3,實現了從長沙到武漢286公里的路試。

吉林大學研發了JLUIV-1型無人駕駛車,使用的是模糊控制加遺傳演算法修正的方式。

上海交大在2005年就與歐盟合作Cyber C3專案,研究面向城市環境的區域交通智慧車輛。

2012年,軍事交通學院的“猛獅三號”,配備5個雷達,3個CCD影象感測器,1個GPS,以無人駕駛狀態行駛114公里,最高時速105km/h。

2016年,北京理工大學設計了一款無人駕駛賽車,使用了雙目攝像頭用於行人偵測、避障這樣的區域性路線規劃。有意思的是,這車百公里加速僅3秒。

2013年,百度也開始搞自動駕駛汽車,2015年12月初,百度無人駕駛汽車在北京進行全程自動駕駛測跑,實現多次跟車減速、變道、超車、上下匝道、調頭等複雜駕駛動作,完成了進入高速到駛出高速不同道路場景的切換,最高時速達100km/h。下圖就是百度的無人駕駛車。

今年9月1日,百度宣佈其獲得美國加州第15張無人駕駛測試牌照。百度在無人駕駛方面投入可謂巨大,包括建立矽谷研發中心,聯合福特公司投資鐳射雷達廠商Velodyne (為谷歌提供鐳射雷達),早前百度還公佈了其“三年商用”、“五年量產”的目標。

國內剛剛起步的無人駕駛技術研究是成為很多高階人才的關注點,前面說的北理工搞無人駕駛車的負責人姜巖,和原Intel中國研究院院長吳甘沙一起成立的馭勢科技,就是一家專門從事自動駕駛研究的公司,在雙目視覺方面有著深厚的技術積累,提供低成本純視覺的自動駕駛解決方案,在限制性環境的自動駕駛技術方面取得了相當的進展。當然類似的小公司還有很多,從不同的層面對自動駕駛技術展開研究。

以上使用的技術基本上都是以CCD影象感測器、雷達測距等技術,簡單的高速路況下,幾乎都已經可以實現不錯的自動駕駛效能,但是城市道路路況,問題還是非常多,畢竟總體來看,國內的自動駕駛依然處於起步階段,還處於研發的原型驗證階段,與美國差距不小(不光自動駕駛,很多方面都是)。百度在這方面算是國內的領頭羊的,與NVIDIA合作,同時也和政府聯手推動自動駕駛技術。但是從路試距離上來說,百度相比谷歌也差得遠。類似馭勢科技這種專業公司的出現,也為國內的自動駕駛研究增添了一支強勁的力量。

美國

當然最牛最有代表性的就是谷歌和特斯拉。

谷歌在軟體方面一直就是世界最頂尖的,雖然微軟和蘋果可能表示不服氣,但是我是這麼認為的。

所以谷歌的強大優勢就是軟體和演算法。下面就是谷歌的自動駕駛汽車。

谷歌的自動駕駛汽車具有GPS、攝像頭、雷達和鐳射感測器,可以以一個360度的視角從周圍環境中獲取資訊,從2009年開始,谷歌自動駕駛汽車在自主模式下已經行駛了120多萬英里,軟體已經知道了許多如何去應對不同情況的方法。下圖就是谷歌自動駕駛汽車眼中的世界。

從圖中可以看出車身的各種感測器可以檢測到最遠達兩個足球場那樣範圍內的物體,包括人員,車輛,建築區,鳥類,自行車等,這輛車可以看到其他的車輛,這些車輛在圖裡用紫色的圖形來表示,騎自行車的人會用紅色標出,左上角轉角的地方會用橙色的圓錐來表示。它甚至可以識別交警的手勢,這是非常了不起的,也是谷歌強大的軟體演算法能力的體現。雖然谷歌的自動駕駛汽車可以根據收集到的資料來預測很多事情,比國內的強大許多倍,但是仍然會出現以前從來沒有發生過的情況。有一次,一輛測試中的自動駕駛汽車正行駛在山景城地帶,出現了一個坐著電動輪椅的女人在路上轉圈圈地追趕一隻鴨子,但是這輛車卻只能不斷試探並且降速來躲避這個女人。

特斯拉強大在別人還在研究試驗的時候,它已經量產並大規模投入使用了。

作為純電動,特斯拉在自動駕駛方便本來就具有優勢,同時特斯拉又特別執著於自動駕駛技術。目前跑在路上的特斯拉車型,實現 Autopilot 輔助駕駛使用了圍繞在車身周圍的 12 個超聲波感測器識別周圍環境、一個前置攝像頭辨別前方物體、一個前置雷達也對前方物體進行識別,還有就是長時間路試積累來的高精度衛星地圖。這樣實現了下表中的“部分自動駕駛”功能。

而特斯拉在今年10月20日非常激動的宣佈:從今天開始,所有在工廠生產的特斯拉車型 -- 包括Model 3--- 將配備具有全自動駕駛功能的硬體,相比人工駕駛,新硬體將從根本上提高車輛行駛的安全性。該系統將包含8個攝像頭,覆蓋360度可視範圍,對周圍環境的監控距離最遠可達 250 米。除此之外,車輛配備的12 個超聲波感測器完善了視覺系統,探測和感測硬、軟物體的距離接近上一代系統的兩倍。增強版前置雷達通過冗餘波長提供周圍更豐富的資料,雷達波可以穿越大雨、霧、灰塵,甚至前方車輛。為了更好的使用這些資料,車輛搭載了比上一代運算能力快40倍的處理器,執行特斯拉基於深度神經網路研發的視覺系統、聲納與雷達系統軟體。綜上所述,該系統提供了一幅駕駛員用眼睛無法觸及的世界影像,通過波段同步檢測車輛周邊每一個方向,這一切遠遠超越了人類的感官。

特斯拉把感測器佈滿了全車。8 個攝像頭提供 360 度的視覺監控,最遠能夠監控 250 米範圍內的物體,12 個超聲波感測器覆蓋的範圍是之前 Autopilot 系統的兩倍。一個加強版雷達用來在雨雪大霧天氣下探測前方車輛。這些硬體使特斯拉的自動駕駛可以達到“高度自動化”的程度。

另外,特斯拉路上跑的車型,都用自己的各種感測器為特斯拉的高精度衛星地圖在做貢獻,這一點是谷歌也比不上的,畢竟谷歌就那麼幾輛測試車跑來跑去,而特斯拉量產的車型都一定程度上是測試車。目前特斯拉 Autopilot 輔助駕駛的行駛里程已經達到了 2.22 億英里(約合 3.57 億公里)。

所以總體來看,不論是谷歌還是特斯拉,其自動駕駛技術都要比國內先進,國內要追上,還需要時日。

有時候,差距就是,看著很小,覺得一使勁就可以追上,然後就使勁,可剛要追上的時候,目標也加速了,差距反而更大了。

我認為,自動駕駛是早晚的事,現在看來,自動駕駛的普及速度比預想的還要快。

自動駕駛一旦大規模普及,很多功能將會成為現實,比如:車輛可以像動車一樣編組執行以實現同步高速度的交通,車與車之間的通訊和互動可以實現高效的通行效率和極低的事故率,甚至不需要紅綠燈及各種複雜的交通標誌標線系統,總體的交通效率和安全性將大大提高,是革命性的。

用不了多久,就會有人說:“開車這麼危險的事情,以前竟然讓人去做,這簡直太嚇人了,不可想象。”,當然“女司機”這個說法可能也要退出歷史舞臺了。

很多朋友擔心交通基礎設施以及法律責任等問題,我覺得這點不用太擔心,自動駕駛普及的過程,也是相關的交通技術設施和法律不斷完善的過程。

今天主要分析一下自動駕駛的技術層面,其他相關的道路設施及法律責任等問題在這裡不討論了。

首先簡單說一下自動駕駛的原理。

所有的控制系統都是由感測器、控制器和執行器組成的,從這個角度上講,自動駕駛原理其實和人工駕駛是一樣的,我們用眼睛觀察路況,而自動駕駛則是使用鐳射雷達、超聲波雷達、攝像頭、GPS等感測器來觀察路況確定位置。我們用大腦做判斷,自動駕駛當然就是用電腦作為控制器來判斷。然後我們通過手腳控制車輛方向盤、加速和剎車,自動駕駛也是根據電腦的輸出直接去控制車輛。

看上去很簡單,但是要深入分析的話,特別是汽車這麼危險的東西,要想保證自動駕駛的可靠性的話,其實非常複雜。

感測器方面,鐳射雷達和超聲波雷達當然都是用來測距的,理想狀態下車輛可以探測到周圍所有的障礙物並算出這些障礙物的距離,但是實際上,這些障礙物很可能會被誤判,比如風中飛舞的塑料袋會被判斷為障礙物,甚至雨滴有可能被認為是障礙物。攝像頭更不用說了,單目或多目攝像頭利用計算機視覺讓自動駕駛汽車實時識別交通訊號燈、交通標誌、車道線、近距離低速障礙物等,同時加上與道路基礎設施以及雲端資料庫的通訊,實現諸多功能。但是,今年特斯拉自動駕駛出現的死亡事故很大程度上與攝像頭有關係。在逆光和大光比的情況下,攝像頭的分辨能力就降低了,當然還有低照度情況,這個受限於當前的影象感測器技術,懂攝影的朋友都會知道,機器視覺本來就是一個複雜的東西,同時攝像頭有可能被灰塵、眩光等各種不利因素影響,所有從可靠性上講,依然存在很多問題。當然除了這些判斷路況的感測器,汽車還有車速、加速度、轉角度等各種感測器。

控制中心方面,接收這麼多感測器的資訊,進行分析處理,得出控制策略,下達控制指令,並且這個過程必須實時,所以控制中心必須具備高效能的實時運算能力。就硬體來說,自動駕駛的過程可容不得宕機,所以一般硬體都要用滿足高可靠性高效能的實時運算。就軟體來說,演算法就太重要了,自動駕駛的軟體演算法必須實現路徑規劃、躲避障礙物、加速度控制、姿態控制等等多種功能,但是目前並沒有哪種控制方式能實現完美的無人駕駛,很多時候廠家都會採用多種方式共同處理,比如模糊控制配合遺傳演算法、深度學習等等。作為也寫了好多控制軟體的答主來說,感覺這句話說的真是太對了:“99%的情況使用1%的程式碼就可以應付,而剩下的1%的情況需要用99%的程式碼去處理。”

執行器方面,一旦得到了控制指令,讓汽車去執行,這一部分就目前來說還算是不錯的,特別是電動車。電動機極高的效率、優良的調速效能、寬泛的調速區間決定了電動車更容易實現自動駕駛,而普通汽車經過多年的發展,其發動機自動控制系統、自動變速箱、電子制動等系統的控制也已成熟,ESP、TCS、定速巡航、自適應巡航等系統也已經廣泛使用,與自動控制系統對接並不麻煩。

一線奮戰無人駕駛也有些年頭了,切身的體會,幾年前還會天馬行空的暢想,這些年開始嚴肅對待這個問題。這個問題的回答有個基本思路,必須從商業邏輯->研發戰略->核心供應鏈->關鍵演算法的順序來討論。(作為一個程式設計師,演算法還是最有意思,^_^)。還是老規矩先說結論:大量核心供應鏈部件和演算法很長一段時間還是國外領先。但無人車不是手機,不會是零部件的堆砌,肯定會受到國內政策,交通環境,生態體系的影響。國內企業只要牢牢守住生態陣地,總有反超機會。佔坑第一,做強第二!

一、商業邏輯

首先是大家基本達成一致的邏輯(國內外基本都在一個起跑線上):

共識一:"電車理論"這種問題不該是問題

所謂的“電車難題”是倫理學領域最為知名的思想實驗之一,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉桿?自動駕駛汽車也會遇到類似的倫理問題,在危急情況下,是保乘客棄行人還是保行人棄乘客?

大家對於電車理論的共識就是那麼幾點

自動駕駛汽車不應該陷入這種兩難困境:設計這麼多邏輯,裝那麼多感測器,甚至超出人類認知的V2X,地圖,鐳射雷達,積累大資料的駕駛經驗都是為了這些尷尬不出現。

車輛兩難的本能反應必須是預先設定經過認可的:不能排除這種兩難情況的出現,但是基本的價值觀必須預先設定,而設定價值觀的可以是人,機器只用把過程進行完整的記錄。

這個鍋我背哈!真的出問題了怎麼辦,很多企業已經做了不錯的表率(沃爾沃)。

共識二:增量式駕駛員輔助系統不會進化成自動駕駛系統

之前看到過這樣的路線劃分

當今自動駕駛行業最大的激辯就是到底要走特斯拉路線,還是谷歌路線。前者的處理方案是不斷改進的增量系統,期望有一天這套系統能直接驅動自動駕駛汽車。谷歌則否定這條道路,認為我們該應用不同的技術。

我深感莫名其妙,特斯拉和谷歌我認為就是一致的認知。特斯拉遞增的是軟體版本,不是功能增量,而其收集感知資料的商業模式,將是谷歌路徑商業化的必由之路。

實際上的區別是整車廠和科技公司的區別,之前某位國外知名主機廠高管曾說過,自動駕駛對他們來說就是分分鐘的事情,因為在他看來縱向控制就是“ACC CC AEB”,整合現有成熟技術就可以了。ACC/CC/AEB三者之間存在繁瑣的IF-THEN切換規則,並且每一種策略都不符合人類駕駛的基本邏輯,現實交通的複雜性會直接導致這種策略的崩潰。TRUST ME 整車廠也不會這麼想了!

基於人車路的概率分佈,執行態勢,行為意圖基本上是所有企業主流的做法。

共識三:自動駕駛行市場巨大

據美國市場統計:3 萬億英里的行駛里程x每英里 0.1 美元的成本 = 每年 3000 億美元的營收,在共享運輸這樣的背景下,類似Uber、Lyft 和滴滴這樣的先行者,總計估值已經高達 1100 億美元,基本相當於美國汽車三巨頭通用、福特和克萊斯勒的市值之和。

共識四:城市發展將會在遠期支撐自動駕駛

未來 20 年內大量的交通基礎設施都將支援自動駕駛。什麼專用道路標識,V2X,5G,高精度地圖,邊緣計算裝置等等等等。也許現在的設施差了些,未來為了安全一定會改變。

共識五:誰強誰弱不重要,滿足市場需求才是最重要的。

這是一個最重要的問題,回答這個問題我認為實際上是兩種劃分:

1.所有權劃分

未來消費者到底會將汽車看做是私人物品還是服務供應商,這關乎一個商業模式的問題。

2. 使用空間劃分

是開放道路,半封閉道路,還是封閉道路(這種不應該算作自動駕駛領域),開放和半封閉道路的參與者有很大區別

目前國內無人駕駛達到什麼水準?美國到底領先中國多少?

我認為,自動駕駛是早晚的事,現在看來,自動駕駛的普及速度比預想的還要快。

自動駕駛一旦大規模普及,很多功能將會成為現實,比如:車輛可以像動車一樣編組執行以實現同步高速度的交通,車與車之間的通訊和互動可以實現高效的通行效率和極低的事故率,甚至不需要紅綠燈及各種複雜的交通標誌標線系統,總體的交通效率和安全性將大大提高,是革命性的。

用不了多久,就會有人說:“開車這麼危險的事情,以前竟然讓人去做,這簡直太嚇人了,不可想象。”,當然“女司機”這個說法可能也要退出歷史舞臺了。

很多朋友擔心交通基礎設施以及法律責任等問題,我覺得這點不用太擔心,自動駕駛普及的過程,也是相關的交通技術設施和法律不斷完善的過程。

今天主要分析一下自動駕駛的技術層面,其他相關的道路設施及法律責任等問題在這裡不討論了。

首先簡單說一下自動駕駛的原理。

所有的控制系統都是由感測器、控制器和執行器組成的,從這個角度上講,自動駕駛原理其實和人工駕駛是一樣的,我們用眼睛觀察路況,而自動駕駛則是使用鐳射雷達、超聲波雷達、攝像頭、GPS等感測器來觀察路況確定位置。我們用大腦做判斷,自動駕駛當然就是用電腦作為控制器來判斷。然後我們通過手腳控制車輛方向盤、加速和剎車,自動駕駛也是根據電腦的輸出直接去控制車輛。

看上去很簡單,但是要深入分析的話,特別是汽車這麼危險的東西,要想保證自動駕駛的可靠性的話,其實非常複雜。

感測器方面,鐳射雷達和超聲波雷達當然都是用來測距的,理想狀態下車輛可以探測到周圍所有的障礙物並算出這些障礙物的距離,但是實際上,這些障礙物很可能會被誤判,比如風中飛舞的塑料袋會被判斷為障礙物,甚至雨滴有可能被認為是障礙物。攝像頭更不用說了,單目或多目攝像頭利用計算機視覺讓自動駕駛汽車實時識別交通訊號燈、交通標誌、車道線、近距離低速障礙物等,同時加上與道路基礎設施以及雲端資料庫的通訊,實現諸多功能。但是,今年特斯拉自動駕駛出現的死亡事故很大程度上與攝像頭有關係。在逆光和大光比的情況下,攝像頭的分辨能力就降低了,當然還有低照度情況,這個受限於當前的影象感測器技術,懂攝影的朋友都會知道,機器視覺本來就是一個複雜的東西,同時攝像頭有可能被灰塵、眩光等各種不利因素影響,所有從可靠性上講,依然存在很多問題。當然除了這些判斷路況的感測器,汽車還有車速、加速度、轉角度等各種感測器。

控制中心方面,接收這麼多感測器的資訊,進行分析處理,得出控制策略,下達控制指令,並且這個過程必須實時,所以控制中心必須具備高效能的實時運算能力。就硬體來說,自動駕駛的過程可容不得宕機,所以一般硬體都要用滿足高可靠性高效能的實時運算。就軟體來說,演算法就太重要了,自動駕駛的軟體演算法必須實現路徑規劃、躲避障礙物、加速度控制、姿態控制等等多種功能,但是目前並沒有哪種控制方式能實現完美的無人駕駛,很多時候廠家都會採用多種方式共同處理,比如模糊控制配合遺傳演算法、深度學習等等。作為也寫了好多控制軟體的答主來說,感覺這句話說的真是太對了:“99%的情況使用1%的程式碼就可以應付,而剩下的1%的情況需要用99%的程式碼去處理。”

執行器方面,一旦得到了控制指令,讓汽車去執行,這一部分就目前來說還算是不錯的,特別是電動車。電動機極高的效率、優良的調速效能、寬泛的調速區間決定了電動車更容易實現自動駕駛,而普通汽車經過多年的發展,其發動機自動控制系統、自動變速箱、電子制動等系統的控制也已成熟,ESP、TCS、定速巡航、自適應巡航等系統也已經廣泛使用,與自動控制系統對接並不麻煩。

預計2020年投入使用。就是數量,美軍戰鬥機服役架次在6000架,中國在1500架左右,美國在20年前就已經有了。航空科技也是如此。

在科技上,不好衡量。比如航天科技,我們計劃2025年左右登月,美國在50年前就已經登月了。我們正要做太空站。比如航母,我們1艘,美國裝備的是第四代戰鬥機,咱們和他們不是一個時代的武器,差距也較大。這還是數量,技術水平相當於美國50年代水平在經濟總量上

目前國內無人駕駛達到什麼水準?美國到底領先中國多少? 第2張
熱門標籤