從19、20世紀人類開始有了機械動力車發明以來,歷經大小不斷的科技變革,更有幾次飛躍性的成長,當進入了21世紀後,一股電子化風潮更席捲全世界,也吹向汽車業,讓汽車開始跟著電腦化,人們因而對於這部有四個輪子的「大黑盒」,有了更多懷抱的科幻憧憬和暇想,舉凡從報章雜誌、小說乃至影集、電影都曾描繪過類似的科幻情節,而無人駕駛車便是其中之一。
不過,到底無人駕駛車是什麼,大抵而言,目前在業界普遍也都未形成共識,光以名稱來說,就各有不同的稱呼,像是有依功能來命名的Autonomous Car(自動駕駛車),也有從駕駛者的介入程度來區分的Driverless Car(無人駕駛車),或是像Google直接稱之為Self-Driving Car(自我驅動駕駛車)。即便這些命名方式略有不同,但都有個共同特色,就是要做到取代原本駕駛者的工作,讓汽車靠自己就能自動完成所有駕駛操控。從Google對於完全自動化的無人駕駛車的定義來看,也有相同的看法,指的是:「一輛設計成能完成所有駕駛操作的車輛,而且任何情況下,都不用人為介入來取回汽車主控權。」
汽車電子化發展至今,在不少車廠最新量產推出的中、高階車款之中已搭載了這類的自動駕駛功能,像是先進駕駛輔助系統(Advanced Driver Assistance Systems,ADAS)等,來提供如主動等速行駛、半自動停車輔助,或車道偏離偵測等輔助功能,汽車開始給人有了變聰明的印象。
不過,無人自動駕駛這個技術在Google這家科技公司的加入後,近年來卻有了突飛猛進的迅速成長,因而受到外界囑目而迅速竄紅,甚至還在今年Gartner公布的2015新興技術發展周期(Hype Cycle for Emerging Technologies)報告中,取代目前最當紅的物聯網,躍升成為全球最熱門的資訊科技技術。
每秒就得自行作出10次駕駛判斷
2009年,距今還不到幾年前,Google發起了這項無人駕駛車專案(Self-Driving Car Project)計畫,短短幾年間,Google用這輛無人駕駛車不僅已經做到能自動在高速道路安全行駛,即使是來到人口稠密、環境更為錯綜複雜的市區道路環境,也能在安全情況下完成操作駕駛,至今,這輛搭載無人駕駛系統的汽車,在美國加州地區已測試行駛的里程數超過100萬英哩,相當於160萬公里的距離。
Google用行動證明了汽車也能變得跟駕駛者一樣、甚至還更聰明,也讓無人駕駛車進入大眾市場往前邁出一大步。但到底Google自動駕駛系統和一般車廠搭載的ADAS有何不同,對此,Google無人駕駛車專案總監Chris Urmson在參加今年3月由TED舉辦的演講活動時直指兩者最大差別關鍵就在於「應變能力」。
Google無人駕駛車專案總監Chris Urmson表示,無人自動駕駛技術是以毫秒為單位的駕駛世界,車輛每0.1秒就得自行做一次判斷,決定該變換駕駛路線,抑或是調整行駛的速度。(圖片來源/Google)
相較於ADAS只能在特定情況下提供駕駛輔助,Chris Urmson說:「無人駕駛車是行駛在以毫秒為單位的駕駛世界,平均每秒就能對周圍環境自行作出10次判斷,改用距離來看時,大約每經過1英哩,汽車就得作出1,000次決定。」
在臺灣,近年來也積極展開無人自動駕駛技術開發的車輛研究測試中心研究發展處經理李玉忠則點出:「Google無人車技術能領先的真正關鍵,不是汽車本身而是軟體。」
李玉忠用美國國家公路交通安全管理局(NHTSA)對於自動駕駛所做的分類,來解釋Google自動駕駛系統和ADAS之間在運用功能上的不同差別。NHTSA將自動駕駛分成從第0級到第4級循序漸進發展的5個階段。當中的0等級指的是傳統未加裝電子輔助功能的汽車,全由開車者自行完成所有駕駛操控,如控制方向盤、踩油門或換檔等。
車輛研究測試中心研究發展處經理李玉忠表示,Google無人車技術能領先的真正關鍵,不是汽車本身而是軟體。
當汽車開始具備1個或2個以上的電子控制功能時,就進入到第1或第2個階段,如將定速控制與車道維持這2個功能整合,就是第2級的自動駕駛應用,以及在第3階段多數時間車輛可自行掌控駕駛,少數涉及安全等情況,才需切換由駕駛者操作。而當到達最後的第4階段,這時,汽車能做到全程完成所有駕駛操控,車上乘客只需輸入目的地而完全不需要介入控制。
而以目前部份中、高階車款搭載的ADAS來說,李玉忠則是傾向將它們全部歸屬在第2個等級階段,他表示,這類的輔助自動駕駛功能通常只能在固定場域內完成,例如可行駛在高速道路等周圍環境相較簡單的地方,可是,一旦進入交通更為複雜的環境,如市區街道等,系統就會因為無法辨識判斷而難以正常且安全的行駛。
相形之下,李玉忠認為,Google則比這些車廠還超前一步達到等級3的階段,可以做到自動行駛在更廣泛的場域範圍,如加州或德州地區等,而車輛在多數情況也能因應不同複雜程度的交通或地形環境,例如,寬廣快速道路或蜿蜒曲折的鄉村街道等,只有在與安全相關的必要情況下,才需車上測試人員來接手操作。因而李玉忠甚至大膽形容說:「在任何情況下,Google無人駕駛車已做到8成完全自動駕駛的能力。」
Google能領先其他車廠的最大關鍵是機器學習
根據Google Self-Driving Car Project網站上的說明,以目前一輛Google無人駕駛車來說,基本配備了有像是高精密雷射雷達、遠距雷達、攝影機等多種環境感測器裝置,這些感測器實測的數據可用來建構出車輛四周圍大約2個美式足球場範圍內的立體影像視圖。其中光是架設在車輛頂部的一個環景3D雷射雷達裝置,就內建至少64顆的雷射感測器,每秒可針對周圍環境記錄下多達130萬個掃瞄像素點。
前Google資深執行副總裁也是新任Google執行長Sundar Pichai在今年Google I/O開發者大會上也毫不隱瞞的說出了造成Google和其他車廠之間,這背後差距的關鍵技術就是機器學習(Machine Learning)。
新任Google執行長Sundar Pichai在今年Google I/O開發者大會上透露,Google領先其他車廠的關鍵是機器學習技術。他還現場展示無人駕駛車系統後端的動態行駛視圖。如上圖顯示,車輛在道路行駛過程中,會以即時方式將周圍環境物體,套用到機器學習演算法做辨識,並和精密地圖系統疊加(如上圖的灰色區域),進而預測標識地圖上不同位置物體的下一步行動後(如上圖的粉紅色區塊),再以此來決定一條最佳行駛路徑(如上圖的綠色區域)。(圖片來源/Google)
機器學習泛指的是不依賴以規則為基礎的電腦程式運算,反而靠學習從大量資料中找出關聯性而訓練而成的一種演算法。機器學習和商業智慧(BI)最大不同,在於BI只能以現有資料來解讀,一旦遇到沒看過的資料便無法發揮決策作用,但機器學習則可經由訓練後,對於現存以外的資料來預測出結果。
簡而言之,機器學習是一種用來預測未來的演算工具。其實機器學習的歷史就跟電腦科學學門一樣悠久,隨著網路、雲端和硬體技術成熟也加深了機器學習應用,近幾年廣泛運用如網路、商業、醫學和生物基因等領域。而Google近幾年也在圖形、影像辨識等機器學習領域上獲得不錯的運用成果,現在更進一步把它延伸運用在無人駕駛車的自動駕駛技術上。
Google無人駕駛車之所以非得用到機器學習不可,其實就在於駕駛開車過程中常常會遇到各種難以預料到的突發狀況。這些情況也都不是有一定規則可循,反而更多是得隨著當下周圍環境改變而很快立即反應,例如,避開前方施工中的障礙物、路邊逕行違停的車輛,或是閃避紅燈突然跨越到馬路中央的行人等。另一方面,隨著越進入都市人口越密集的區域,交通環境也就更為錯綜複雜,因而駕駛在下達指令判斷上要考慮問題也就跟著複雜化許多,有時更得面臨不同地形、天候的挑戰,這已不是單靠幾臺電腦事先設好規則就能做到,而是得要具備有像機器學習,甚至借助深度學習的類神經演算法,來提高駕駛判斷的預測能力。
其實這也間接回答到了為何Google要經年累月的,讓汽車在每一條道路不斷行駛測試,為的是要將這些從真實環境蒐集而來的大量數據,餵給機器學習做為長期經驗的累積,確保汽車在以毫秒為基準的行駛環境中,所下達的每一次指令,都能發揮最佳的判斷。
Chris Urmson日前在Google Student Blog 網站接受學生的提問時也間接透露了Google藉由蒐集大量感測器資料,來提供車輛做機器學習的訓練,確保讓汽車能在不同的駕駛環境(Driving Environment)、交通型態(Traffic Pattern) 以及道路條件( Road Condition)下仍可做到最佳的判斷。至今這輛Google駕駛車也已經「看」了超過了1.8億輛的車輛,路過了60萬個交通號誌、20萬個禁行標誌,以及避開數千個交通三角錐。
根據Google的說法,會將這些已訓練完成的機器學習演算法的軟體,載入車內的自動駕駛系統中,這輛汽車在道路行駛時立即就能依照先前學到的駕駛經驗來操控。大致來說,每一次駕駛判斷會經過包括環境辨識、外在環境行為預測,以及駕駛決策共3個過程。以開車在市區道路行駛為例,汽車會將蒐集到周圍來往的車輛、自行車騎士、行人或交通燈號誌等環境數據,套用到機器學習演算法做物體大小(Size)、形狀(Shape)和移動型態(Movement Pattern)的辨識,再與車上的精密地圖系統疊加後,預測出汽車周圍標識不同輪廓物體的下一步行動,進而決定接下來的行駛策略,例如,變換行駛路線,抑或是調整車速快慢等。
此外,在這些測試用的無人駕駛車內,也會有測試人員隨行監看車輛的操控反應,一旦有遇到系統無法辨識的道路環境,或駕駛過程中做出不恰當的判斷時,如將行道樹倒影誤認為馬路邊線,或是遇叉路該轉彎而沒轉彎等情況,這時測試人員便會介入操作,並將這些車輛的測試數據,拿回去和人為操作比較後,重新做機器學習的訓練,確保下次再遭遇到類似情況,汽車也能下達對的判斷。
然而,光只是具備機器學習技術,還不足以讓Google無人駕駛車變得如此聰明,要讓機器學習在具有高度不確定的環境和變數干擾下,還能做出快速最適當的判斷,除了需擁有大量汽車行駛的環境資料來當作訓練樣本外,這背後更得仰賴Google資料中心強大的雲端運算和資料分析能力才有辦法實現。
連Chris Urmson自己都曾形容從無人車感測器蒐集數據而拿來分析的資料量之龐大,就如同像是在處理大資料(Big Data),只是採礦分析的對象變成一條條的馬路。甚至,Idealab這家網路創投公司執行長Bill Gross兩年前在參與一場Google XPriz活動後,也曾公開揭露Google無人車可蒐集到的數據資料每秒高達750Mb,儘管這項數據未經過官方證實,但也透露出在這輛車上隨時都有大量數據資料產生。
機器學習要發揮絕佳效果,大資料和運算能力缺一不可
而前日負責Google X秘密實驗室計畫的Google Brain團隊成員之一邱中鎮難得來臺也揭露了Google如何讓機器學習發揮這麼好效果的關鍵。當越要解決越複雜的問題而採用深度學習時,得先跨過資料量或運算資源的門檻,因為越繁雜的問題得靠大型的神經網路才能有效解決,他說,通常加權連結值得要在百萬到億的等級才夠,而這麼大的模型需要非常大量的樣本和強大運算能力,他說,而這正是Google的強項之一
得先有軟體實力,才能突破無人駕駛技術的高門檻
不論是機器學習、大資料分析,抑或是資料中心的運算資源,這些其實都不是傳統汽車產業原先就具備有的軟體技術能力,但也正因為如此,才讓Google無人汽車變得如此聰明,就是靠著在短短幾年內不斷在道路上行駛,累積巨量環境數據,並透過Google強大的資料中心運算資源與大資料,來不斷加深機器學習的訓練,因應各種緊急突發的駕駛狀況,才讓汽車無人駕駛能發揮出這麼好的效果。
除了Google以外,連電動車業者Tesla和以提供全球租賃車為主的Uber這兩家新創汽車公司,現在也都跟隨Google的腳步,展開自動駕駛技術的研發工作。以Tesla來說,算得上是目前檯面發展智慧汽車走的相當前面的車廠之一,除了宣布將在今年為汽車加入半自動駕駛模式外,並也向Google取經尋找替未來電動車導入無人駕駛系統的可能性。此外,Uber今年也先後與美國卡內基美隆和亞利桑那這2間大學展開合作計畫,為的是要開發出Uber專用的無人駕駛車。
不僅如此,開始也有一些傳統汽車廠如豐田、福特、奧迪、通用、BMW、賓士等也紛紛投入研發無人自動駕駛技術,也正因為他們知道,在這場由軟體才能主導無人駕駛技術的關鍵戰場上,得培養具備足夠的軟體實力,甚至是變成軟體公司,才有助於突破自動駕駛技術發展的高門檻,而不被像Google這類的網路和軟體公司所吞噬殆盡。
臺灣也有自動駕駛車 |
無人駕駛車不只有Google在開發,不少車廠和車輛研究機構也開始投入研究,就連臺灣也不落人後。來自中部彰濱工業區的車輛研究測試中心,近2年除了發展駕駛輔助系統外,也積極展開無人汽車的研發工作,至今,展示出無人駕駛車功能的最新成果,已經能做到讓車輛自動直行、彎道轉向、避開前方障礙物等自駕車功能,即使是遇到路人行經馬路也會先停車等對方通過後在繼續行駛。若以美國國家公路交通安全管理局(NHTSA)的自動駕駛等級來歸類,已達到等級1的階段,具備短暫部份無人車功能。
階段0 傳統未加裝電子輔助功能的汽車,全由開車者自行完成所有駕駛操控,如控制方向盤、踩油門或換檔等。
階段1 汽車開始具備1個電子控制功能,如自動煞車系統等。
階段2 臺灣自駕車目前能力 汽車具備2個以上的電子控制功能,如將定速控制與車道維持這2個系統功能整合。
階段3 多數時間車輛可自行掌控駕駛,少數涉及安全等情況,才需切換由駕駛者控制。
階段4 全程由車輛自行完成所有駕駛操控,車上乘客只需輸入目的地而完全不需要介入控制。
資料來源:NHTSA,iThome整理,2015年9月 |