對于社會大眾來說,他們希望,自動駕駛汽車能遵循比人類駕駛員更為嚴格的標準。就在上周,Elaine Herzberg女士在美國亞利桑那州不幸被一輛處于自動駕駛模式的Uber汽車撞倒,最終搶救無效身亡。在這場悲劇發生之后,真的是時候思考一下傳感和決策對于安全的意義了。
首先,我們當前所面臨的一大挑戰就是解讀傳感器信息。從警察公布的視頻中似乎可以看出,即便檢測和分類對象的能力是自動駕駛汽車系統中最基本的構建模塊,但其實,這也是一項極具挑戰性的任務。然而,這種能力是當前高級駕駛輔助系統(ADAS)的核心,該系統囊括自動緊急剎車(AEB)和車道保持等功能。數十億英里的行駛里程足以驗證,ADAS中的高精度傳感系統正在挽救生命。同樣地,在克服更大的挑戰之前,這種技術也是未來全自動駕駛汽車所需要的基本要素。
為了證明當前ADAS技術的能力和精妙之處,我們在TV監視器的視頻中運行了Mobileye的軟件,這臺監視器播放了警方提供的事故片段。盡管狀況不佳——有可能很多事故現場的高動態范圍數據已丟失,但Mobileye的軟件依舊在撞擊前大約1秒的時候,就清晰的檢測到了。下方的圖片展示了三張快照,上面檢測到的自行車邊界框和Herzberg女士。該檢測有兩個獨立運行的來源:模式識別(產生邊界框)和一個“自由空間”檢測模塊(產生水平圖,其中紅色部分表示紅線上方出現了一名“路人”)。利用運動結構(技術術語為“平面+視差”),第三個模塊可以區分道路和物體。這樣就驗證了檢測到的物體是3D的,但可信度較低,因此被描述為“fcvValid: Low”,而顯示在屏幕左上方。出現低可信度是因為,此處缺失生產型車輛通常可用的信息,并且圖像質量較差,畢竟,在行車記錄儀拍攝的視頻基礎上再次拍攝,可能會存在某些未知的縮減采樣。
圖像來源于警方公布的TV監視器上的視頻片段。重疊的圖像顯示了Mobileye ADAS系統的響應。綠色和白色邊界框是自行車和行人檢測模塊所輸出的結果。水平圖顯示了道路和障礙物之間的邊界,我們稱之為“自由空間”。
此次實驗所使用的軟件與當前配備ADAS的車輛采用的軟件相同,并已經在數十億英里的用戶行駛里程中得到了驗證。
現在,像深度神經網絡等人工智能技術的發展,讓很多人認為,高精物體檢測系統已經可以被輕松地開發出來,而那些計算機視覺專家十幾年的經驗則被視為大打折扣。這使得很多新手涌入這一領域。雖然這些新技術的確有用,但很多傳統依舊不能忽略,這包括識別和完成數百次極端情況的測試、對數千萬英里數據集的注釋以及在數十個ADAS項目上進行極具挑戰性的試生產驗證測試。經驗至關重要,尤其是在安全為先的領域。
對事件的第二個觀察是透明度。人人都說“我們把安全放在最重要的位置”,但我們認為,要想獲得公眾信任,就必須更加透明。正如我在去年10月在Mobileye發布責任敏感安全模型(RSS)時所說,決策必須符合人類判斷的常識。我們將“危險情況”和“正確響應”等常識概念做了數學公式化設計,并建立了一個從數學上確保符合定義的系統。
第三個觀察則是冗余。真正的感知系統需要有冗余設計,而且,必須依賴于獨立的信息源:攝像頭、雷達和激光雷達。把這些信息源整合起來,有助于提高駕駛舒適度,但不利于安全。為了展示我們獲得了切實的冗余度,Mobileye開發了獨立、僅攝像頭的端到端系統以及獨立的激光雷達和僅雷達系統。
如果類似上周的事故再次發生,用戶本來就很脆弱的信任,將會被進一步降低,并可能引發被動監管,最終扼殺這項重要的工作。正如我在介紹責任敏感安全模型時所說,我堅信,現在就需要對全自動駕駛汽車的安全驗證框架做出有意義的討論。我們邀請汽車廠商、該領域的技術公司、監管部門以及其它相關各方一起解決這些重要問題。