酷播亮新聞
最棒的知識補給站

只用攝像頭和光學雷達是不夠的:Uber的自動駕駛車致死事件

摘要:機器之心專欄作者:陳熙(Nuance)、劉學(麥吉爾大學)1.事件回顧3
月18日星期天晚十點左右,Uber的一輛自動駕駛SUV
在美國亞利桑那州坦佩市的街道上造成了一起交通致死事故。 坦佩市的警方證實

機器之心專欄

作者:陳熙 (Nuance)、劉學(麥吉爾大學)

1. 事件回顧

3
  月 18 日星期天晚十點左右,Uber 的一輛自動駕駛 SUV
在美國亞利桑那州坦佩市的街道上造成了一起交通致死事故。 坦佩市的警方證實,在事故發生時,該 SUV
處於自動駕駛模式並撞上了一名推著自行車橫穿馬路的女士。 這名女士在醫院搶救無效後去世。 坦佩市警察局莫爾,在看過由 Uber SUV
車載攝像頭記錄的行車視頻之後表示,該名女士「從陰影中直接走到了路中間」。 Uber
的自動駕駛系統和車內的安全員都沒有註意到她的出現。 在撞上受害者的過程中,Uber SUV
並沒有減速。 該名女士被認為是第一位因自動駕駛而去世的行人。

但這其實並不是第一起自動駕駛致人死亡的事故。 將近兩年以前,在美國佛羅里達州,一輛特斯拉汽車撞上了一輛半掛式卡車,造成了特斯拉司機的死亡。 根據事後特斯拉發布的消息,這一輛特斯拉
  Model S
正開啟著自動駕駛模式,沿著高速公路行駛。 與此同時,一輛半掛式卡車從垂直方向的高速公路路過。 在明亮天空的光照下,特斯拉的自動駕駛系統和司機都沒有看到半掛式卡車的白色拖車部分,因此沒有踩下剎車。 特斯拉汽車的擋風玻璃直接撞上了拖車部分的底座,導致了司機的死亡。

就如同 Uber 在事故後發表的推特所說,我們都對遇難者家屬表示深切哀悼。 但同時,我們也應該進一步了解,Uber、特斯拉、以及其它採用自動駕駛技術的公司的車輛,為何沒能避免事故的發生。 這樣,我們才能進一步完善新技術,並避免再次發生類似的事故。

2. 為什麼現有的自動駕駛技術沒能避免車禍的發生

為了回答這一問題,我們先要了解現有的自動駕駛技術是如何感知周圍環境和檢測行人的。

2.1. 現有的自動駕駛技術如何感知周圍環境

Uber、特斯拉以及谷歌所採用的自動駕駛系統,主要是基於攝像頭和光學雷達(即 Lidar)。 接下來,我們以 Uber 的自動駕駛系統(如圖一所示)為例進行分析。

Uber 的自動駕駛 SUV 搭載了若干個成像系統,可以應對常規任務和緊急任務。

圖 1. Uber SUV 搭載的自動駕駛系統

  • 車頂
      Lidar。 如圖 1 所示,SUV 車頂的桶裝設備就是一個 Lidar。 它每秒會生成若干個反應車輛周邊情況的三維圖像(即 point
    cloud,點雲)。 它通過發射紅外線脈衝,並收集反射信號,來獲得它與周圍物體間的距離信息,從而實現檢測靜止和運動的物體的目的。

  • 車前雷達。 與 Lidar 類似,雷達通過發送無線電波並接收反射信號來測量距離。 相較於 Lidar 的紅外線光信號,雷達的無線電波的抗干擾性更強,能抵抗雨雪和大霧天氣的影響。 但雷達的辨率更低,工作距離也更小。

  • 長短距光學攝像頭。 Lidar
     
    和雷達在測距和定位方面表現出色,但在其它一些任務領域則力不從心,例如識別交通信號和分辨顏色方面。 這類任務是由可見光攝像頭以及其背後一系列複雜的計算機視覺算法所負責。 Uber
      SUV 攝像頭會檢測前車剎車(紅色剎車燈)、紅綠燈、行人等特徵圖形圖案。 特別是在 SUV 的前向,Uber
    採用了多個不同種類攝影頭提取不同角度的圖像信息,以獲得行車環境的全面信息。 這一攝像頭系統,是對人類視覺系統的模擬和延伸。

2.2. Uber 的自動駕駛 SUV 為何沒有檢測到行人

2.2.1. 攝像頭有其固有缺陷

行人檢測是攝像頭系統需要負責的主要任務之一。 很明顯,在事故發生時,Uber 的攝像頭系統並沒有有效地完成其任務。 為了分析 Uber 的攝像頭為何沒有檢測到行人,我們仔細查看了 Uber SUV 攝像頭所拍攝的事故視頻。

在視頻中,在事故發生的當晚,車輛所行駛的道路上,有一部分道路是被陰影所覆蓋的。 推著自行車的女士從道路的左邊開始穿越道路(我們以
  Uber SUV 行進方向為正向)。 她橫穿道路的路線,恰好處在陰影區域內。 起初,SUV
的攝像頭在陰影區域的方向,除了一片昏暗以外什麼也看不到。 直到 SUV 的車前燈照射到了這名女士,攝像頭才發現了她的存在。 然而此時,SUV
離這名女士只有幾米遠,並在以 65
公里每小時的速度行駛中。 無論是自動駕駛系統或是車內的安全員都來不及做出反應,最終造成了事故的發生。 我們認為,在視頻所體現出來的光照環境下,即便是一名專心開車的司機,也很可能無法避免事故的發生。 (也有一些美國的網友指出,故事街道的光照條件並不像視頻所顯示的那麼昏暗。但可以確定的是,陰影區域的光照條件,的確其它路段的光照條件差許多。)

圖 2. 事故現場示意圖

然而,這只是機器和人類視覺系統的固有缺陷所造成的悲劇的其中一件。 在另一件自動駕駛致死的事故中,特斯拉自動駕駛車所搭載的攝像頭以及司機,都沒能在明亮的天空的映襯下,注意到前方的卡車。 與
  Uber SUV 所經歷的昏暗的環境所不同,Tesla
轎車的攝像頭處於十分耀眼的光照環境中。 從這兩個事故中,我們可以總結出基於視覺的自動駕駛技術的固有缺陷。

圖 3 給出了一些視覺系統在較差光照條件下表現不穩定的例子。

圖 3. 視覺系統在較差光照條件下表現不穩定

在我們開車時,我們也會經常遇到另一類情況。 當車輛經過某些路段時,行車視野很可能被部分遮擋。 遮擋物可以來自自然環境,例如,樹木、樹籬和灌木叢等,也可​​以來自人造環境,例如其它大型車輛、指示牌、圍牆和圍欄等。 通過這類路段時,司機需要十分的注意來往車輛行人。 不幸的是,事故還是時有發生。 圖
  4 給出了這一情況的幾個例子,中文俗稱鬼探頭。

圖 4. 交通中「鬼探頭」的例子

由此,我們總結出基於視覺的自動駕駛技術的第二個固有缺點。

從更廣泛的意義上說,現有的基於視覺的自動駕駛技術試圖複製一個類似人類的司機。 因此,它們無法從根本上克服人類司機及其視覺系統的固有缺陷。

2.2.2. Lidar 不適合行人檢測

除了攝像頭以外,Uber
  SUV 還搭載了光學雷達系統。 這一系統即便在完全黑暗的條件下,也能正常工作。 那麼為什麼 Uber SUV
還是沒能及時檢測到行人呢? 其根本原因在於,光學雷達並不是為行人檢測所設計的。 它之所以不能及時檢測到行人,是因為它如下所述的局限性。

  • 光學雷達的英文
      Lidar,是 Light Detection And Ranging 的縮寫,即光學檢測和測距。 Lidar
    本身是一種測繪技術。 它通過發射脈衝激光並分析反射信號,來測量發射源到某一目標距離。 商用的 Lidar
    善於測距並檢測測距目標大致的形狀。 但是它們並不善於實時地分辨物體(例如識別遠處的汽車或自行車)。 其原因有以下幾點。 1) Lidar
    沒有辦法獲得物體寶貴的顏色信息;2) Lidar
    的分辨率比較有限,特別是對於遠處物體的分辨率較低(激光光束將會太發散,以至於無法形成有效的圖像或點雲);3)
    相對於高速的車輛環境來說,Lidar 的刷新率不夠高。

基於以上局限性,我們嘗試著還原了 Uber SUV
的光學系統在事故發生時的工作狀態。 (以下對於 Lidar 的分析都是基於我們的理解和假設。實際情況究竟是怎麼樣,會在 Uber 分析並公佈
Lidar 系統記錄之後,有一個更加清晰的還原。 )當推著自行車的女士進入對向車道時,Uber 的 Lidar
的確檢測到了一些反射信號。 但是由於前文所述的局限性,Lidar
並不能識別這究竟是一名自行車騎手、一輛汽車、一棵樹、一個交通指示牌、或是其它什麼物體。 在行車過程中,對向車道存在物體是完全正常的現象。 最常見的例子是另一輛相向行駛的車輛。 因此,即便
  Lidar 檢測到了有物體的存在,也沒有減速或剎車的必要,除非是 SUV 的車載攝像頭髮現了行人或者交通信號。 不幸的是,Uber SUV
的車載攝像頭並沒有發現推自行車的女士。 因此,當該名女士突然進入 SUV 所行駛的車道時,她已經離 SUV 很近了。 這時,Lidar 發現 SUV
  前面出現了障礙物,但為時已晚。

3. 利用車載通信提升自動駕駛以避免車禍的發生

如前文所述,僅僅是模擬人類的視覺系統,並不能實現可靠的行人檢測,也無法完全避免類似
  Uber 和 Tesla
所經歷的這類事故。 如果我們想實現從根本上優於人類司機的自動駕駛系統,那麼我們必須為其配備人類所不具備的能力。 例如,如果自行車騎手能夠以某種主動的方式,將她的存在通知給
  Uber SUV,或者是,如果半掛式卡車能夠主動地將其位置和尺寸告知 Tesla
自動駕駛車,那麼這些事故都可以避免,或至少不會造成人員死亡。 但問題是,我們現在能夠以經濟有效的方式實現這一任務麼?

答案是肯定的。

車載通信技術(即
  Vehicle-to-Everything, V2X)正是為類似的安全性任務而設計的。 以車輛專用短程通信技術(即 Dedicated
Short-Range Communications, DSRC)為例,該技術支持所有的交通參與者以每秒 10 到 20
次的頻率交互其動態信息。 這些信息包括位置、速度、加速度、行進方向、以及其它交通相關信息。 這樣一來,即便視野不清晰或是視線被遮擋,司機或者自動駕駛車都能夠及時了解周圍所有的交通情況。 更重要的是,無線信號傳播能力,能將司機或自動駕駛車的感知能力,從視覺所及的範圍,提升到視覺所不及的幾公里之外。

接下來,讓我們以 Uber SUV 事故場景為例,分析一下 V2X 技術能如何避免事故的發生並拯救人們的生命。

場景 1:人-車通信 (Vehicular-to-Pedestrian, V2P)

在這個場景中(如圖
  5 所示),一名自行車騎手 B 和一輛汽車 V1 都加載了嵌入式的 V2P 通信模塊。 當騎手 B 要橫穿馬路時,車輛 V1 能夠預測到 B
將會出現在 V1 的行車路線上。 做到這一點,只需要車輛 V1 對騎手 B
最近幾秒內的位置、速度、加速度和方向信息,進行分析和預測,即可描繪出騎手 B 過去、現在以及將來的行進路線。 而以上這些信息,騎手 B
都會主動地週期性地通過 V2P 的無線信道,與車輛 V1(以及周圍其它的交通參與者)進行共享。 於是,當騎手 B 剛剛開始橫穿馬路是,車輛 V1
便及時預測到兩者的行進路線有可能交匯,從而及時降速並避免了可能發生的事故。

圖 5. 人-車通信 (V2P) 場景

場景 2:車-車通信 (Vehicular-to-Vehicle, V2V)

也許有人會說,自行車騎手有可能不願意佩戴
  V2P 設備(儘管 V2X 芯片,例如高通的 QCA6584A,已經做到了毫米級的尺寸)。 在這種情況下,我們也可以依靠 V2V
通信,實現多車輛視野共享,從而為每一輛汽車提供更清晰全面的視野。 在圖 6 所示的場景中,道路上有一名未佩戴 V2P 設備的騎手 B,和兩輛裝載了
  V2V 設備的車輛 V1 和 V2。 在騎手 B 橫穿馬路時,V1 的攝像頭沒能在昏暗的光線下及時識別出
B。 而沒有攜帶任何設備的騎手也將她的存在無法告知 V1。 幸運的是,這次我們有車輛 V2 的幫助。 車輛 V2 從另一個方向駛向現場,V2
的攝像頭和 Lidar 能更好的檢測到騎手 B 的存在。 車輛 V2 及時地通過 V2V 通信,將自己的視野分享給 V1。 於是,V1
能夠從分享的視野中發現 B 的存在,從而及時制動來避免事故的發生。

圖 6. 車-車 (V2V) 通信場景

場景 3:車-基礎設施通信 (Vehicular-to-Vehicle, V2V)

當然,也有可能光照條件如此惡劣以至於任何車輛的攝像頭都沒有檢測到騎手
  B,或是 V1 是路上唯一的車輛。 在這種場景中(如圖 7
所示),我們還可以利用沿路放置的交通傳感器,來輔助完成行人檢測。 (讀者可參考這一鏈接了解更多關於交通傳感器的介紹:
http://www.windmill.co.uk/vehicle-sensing.html)這類傳感器,或者被部署在各類交通設施上(例如紅綠燈、路燈和交通指示牌),或者被單獨部署在路邊。 當某一個傳感器感應到了騎手
  B 橫穿馬路的行為和位置後,它會將這一信息通過 V2I 無線信道廣播給周圍所有的車輛。 這樣一來,車輛 V1
也能及時做出相應的反應,從而避免事故的發生。

以上三類場景,只包含了 2 到 3 個交通參與者,都只描述了 V2X
車載通信最基礎的應用場景。 在實際的應用場景中,一公里的範圍內,就會有成千上萬的交通參與者,直接地實時地分享海量的交通安全信息。 重要的信息內容將被提取出來,通過多跳或者回程數據網絡,一步步集中到整個城市的交通控制系統中去。 這就意味著,在
  V2X 的支持下,我們能在不同的粒度和層級上 (即從單個車輛的粒度,到某個路口、某片街區的層級,直到整個城市的級別),調度並協調交通。

4. 深入了解 V2X 車載通信

4.1. 什麼是 V2X?

援引自維基百科:「V2X 車載通信,是在車輛和任何會被該車輛所影響的實體之間分享信息的技術。它包含了V2I 車-基礎設施通信,V2V 車-車通信,V2P 人-車 通信,V2D 車-設備通信和V2G 車-電網通信。」

援引自美國交通部:「V2V
  系統可以避免 79% 的各類交通事故。 具體地說,V2V 系統可以避免 81% 的輕型車輛事故以及 71% 的重型車輛事故。 V2I 系統可以避免
  26% 的各類交通事故。 具體地說,V2I 系統可以避免 27% 的輕型車輛事故以及 15% 的重型車輛事故。 將 V2V 和 V2I
系統整合起來,可以避免 83% 的輕型車輛事故以及 72% 的重型車輛事故。 」

用我們的話說:V2X
是一個強大的平台。 它能將車輛,司機,自動駕駛系統,行人,交通基礎設施,路邊傳感器,交通管理部分以及其它各類交通實體,聯通整合在一起。 V2X
所使用的無線電波,不受光照條件影響,並能輕易地穿透或繞過障礙物,從而在各類交通參與者之間分享有價值的交通信息。 這些信息會在覆蓋整個交通系統的巨大的數據網絡中流通,使得信息的獲取者能夠了解到更大範圍的交通情況。 由此,人類司機或自動駕駛系統可以更早更快地對周圍的交通情況作出反應。 更重要的是,V2X
  使得各類交通參與者能夠主動地相互協作,讓每一個人和物都能積極地為更安全更高效的交通做出自己的貢獻。

4.2. V2X 標準化 – DSRC 與 LTE-V 之爭

各類車輛和設備是由不同的廠家所生產的。 為了讓本不兼容的它們能都有次序地、高效地、公平地相互通信,我們需要建立通信標準來規範它們的信號發送和接收行為。 現如今,V2X
  領域存在著兩大通信標準,即 DSRC(車載專用短程通信)和 LTE-V(長期演進技術-車輛通信)。 其中,DSRC 是由電氣電子工程師學會(即
IEEE)制定,並且有主要車輛生產商支持的標準。 而 LTE-V 是由第三代合作夥伴計劃(即 3GPP)通過拓展 LTE 而製定的。

DSRC
  的標準化流程可以追溯至 2004 年。 當時,IEEE 在其 802.11 無線局域網(即 Wireless Local Area
Networks, WLAN)標準系列下,開始製定新的車載通信標準。 這一標準即是 IEEE 802.11p。 在 2007 年左右,IEEE
802.11p 標準已經趨於穩定。 於是,IEEE 又開始著手製定 1609.x 系列標準,以做為 V2X
的安全性框架。 差不多同一時間,美國汽車工程師協會(即 Society of Automotive Engineers,
SAE)從汽車工業的需求出發,也開始製定關於 V2V 應用的標準,並將其稱為 DSRC。 而 DSRC 所採用的通信標準即是 IEEE
802.11p 和 1609.x。 現在,人們將 DSRC 和相應的下層標準統稱為 DSRC。

LTE-V 是 3GPP 在 2017 年新發布的。 與 IEEE 802.11 無線局域網標準不同,LTE-V 是一組基於蜂窩通信網絡的 V2I 和 V2V 的通信物理層協議。

現有的研究表明,相較於 DSRC,LTE-V 擁有更大的帶寬,因而能更好地支持非安全性應用,例如文件下載和互聯網連接。 然後,LTE-V 的通信延時較大,阻礙了它在安全性相關的場景中的應用。 DSRC 在碰撞預警等安全性相關的場景中的表現,優於 LTE-V。

圖 8. DSRC 與 LTE-V 的異同 (A. Filippi et al., “Ready to roll: Why 802.11p beats LTE and 5G for V2X”)

表 1 在各個方向上對 DSRC 和 LTE-V 進行了對比。

表 1: DSRC 和 LTE-V 的對比

綜上所述,要通過 V2X 升級現有的自動駕駛系統並提升其安全性能,DSRC 是首選。

4.3. 進一步認識 DSRC

在美國和其它許多國家,各方都在積極地發展和部署
  DSRC。 2014 年 2 月,美國交通部首度承諾它將大力支持 DSRC 在輕型車輛上的應用。 從那時開始,美國國會,美國交通部,IEEE
以及各個大的車企,都在積極地推薦 DSRC 的立法工作。 值得一提的是,美國公路交通安全管理局要求在不久的將來,車輛都需要以 DSRC 做為
V2V 車輛安全標準。 車輛將會通過 DSRC 發送和接收基礎安全信息(即 Basic Safety Messages,
BSMs)。 這一要求得到了絕大多數車企的支持。 只有少部分手機和 Wi-Fi 領域的企業表示了反對。 大規模部署 DSRC 的時間表如圖 9 所示。

圖 9. DSRC 部署時間表

DSRC 要點:

  • 專屬帶寬:位於 5.9GHz 頻帶的一段 75MHz 的帶寬被劃為 DSRC 專屬的交通安全頻譜。 這與一些常見的其它通信協議有所不同。 例如,Wi-Fi、藍牙和 Zigbee 就是共享開放的 2.4Ghz 頻帶。

  • 短距離通信:DSRC 的目標通信範圍在 1 千米之內。 相對於蜂窩通信和衛星通信來說,其通信距離較短。

  • 75MHz 的帶寬被分為 7 個頻道,如圖 10 所示。

圖 10. DSRC 頻道的劃分

  • 每輛車都會在信道 172 中,以每秒 10 到 20 次的頻率,交互 DSRC 基礎安全信息。 緊急信息則會在信道 184 中,以更高的優先級進行傳播。

  • 每一條基礎安全信息都包含兩部分信息。 第一部分信息是強制性信息,包括位置、速度、方向、角度、加速度、制動系統狀態和車輛尺寸。 第二部分是可選信息,例如防抱死系統狀態、歷史路徑、傳感器數據、方向盤狀態等。 圖 11 展示了基礎信息的具體格式細節。

圖 11. DSRC 基礎安全信息的格式要求

5. 增強型 DSRC – 我們的 OnCAR 方法

5.1. DSRC 的挑戰所在

相較於其它傳統的通信技術(例如 Wi-Fi 和蜂窩通信),DSRC 技術所工作的交通環境是動態而多變的。 因此,DSRC 技術面臨著幾個特殊的挑戰。

  • 快速變化的環境。 比方說,但車輛快速地穿行於不同的路段時,所經歷的交通參與者的密度和通信拓撲結構是隨時變化的。 同時,交通參與者的特性和類型也會在幾秒鐘內變得完全不同,例如車輛在經過人行橫道的人群時。

  • 激烈的通信衝突。 在繁忙時段的某些路口,參與車輛和行人的數量會急劇上升,導緻小範圍內劇烈的信道競爭(DSRC 通信節點是基於 CSMA 的方式,來爭奪通信信道的使用權)。

5.2. 我們的方法 – OnCAR

為了面對這些挑戰並保證
  DSRC 優良的通信性能,我們需要一種方法來自適應地調整 DSRC 的通信行為,以應對快速變化的通信環境。 DSRC
通信行為,是由眾多的參數所共同決定的。 這些通信參數包括,數據率(調製和編碼的組合),傳輸功率,競爭窗口大小,目標傳輸範圍等。 同時,DSRC
的性能也是由眾多的性能指標來共同描述的。 這些性能參數包括有效吞吐量(即每秒有多少有效數據被成功接收)、數據包傳輸效率(即發送出去的數據包當中,有百分之多少的數據包能被成功接收)、端到端 延時(即成功接收的數據包從發送端到接收端所經歷的傳輸延時)等。 除了
  DSRC 本身的通信性能之外,自動駕駛技術也可以在應用層或數據層,對 DSRC
提出應用性能需求指標。 這些各層次的指標,在某些程度上,是相互排斥的。 優化一個指標,可能會導致另一個指標的下滑。 同時,通信參數和性能指標之間,有著複雜的相互聯繫。 改變某一個通信參數,會造成多個性能指標的變動。 而優化某一個性能指標時,也需要同時控制多個通信參數。 同時,通信參數內部和性能指標之間,也有著複雜的耦合和互動關係。 因此,我們需要在實時變化的交通環境中,同時協調多個通信參數,以滿足各類性能指標的不同需求。

為了完成這一複雜的任務,我們提出了名叫
  OnCAR 的方法 (文章鏈接:
http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=7524434)。 相較於其它現存的自適應方法,OnCAR
  能更好地聯合優化 DSRC 的各項性能指標。 其原因如下:

  • OnCARC
      採用了先進的多輸入多輸出 (Multiple-Input Multiple-Output, MIMO) 控制模型,因而能同步地調節控制多個
    DSRC 通信參數,來聯合優化多項 DSRC 性能指標。 (請注意 OnCAR 的 MIMO
    模型是指多控制變量和多控制目標,與通信領域常說的多數據流 MIMO 不是同一概念。 )

  • OnCAR 具有在線機器學習 (online machine learning) 的能力,能夠根據交通環境的變化,實時更新 MIMO 控制模型。

OnCAR 的結構如圖 12 所示。

圖 12. OnCAR 的結構示意圖

在大的框架上看,OnCAR
 
是由兩條控制迴路所構成的。 其中,前饋迴路則是用於提升控制的速度,而反饋迴路是用於細粒度的性能優化。 具體地說,前饋迴路會主動收集周圍的環境信息,例如車輛密度和信幹噪比等,並將這些信息輸入預設的經驗模型中,得到一個包含各類
  DSRC
參數的基礎控制向量。 同時,反饋鏈路會評估一個由各項性能指標的變化量組成的多階成本函數,以此來分析近幾次參數控制的優劣,從而在線地更新控制策略。 基於更新後的控制策略,反饋鏈路會生成一個增量向量,用以在細粒度上調整前饋鏈路所給出的基礎控制向量。

OnCARD
  的反饋鏈路的在線機器學習能力,是由圖 13 所示的在線控制器所實現的。 這一控制器所應用了的在線機器學期算法,是遞歸最小二乘法
(Recursive Least Squares, RLS, https://goo.gl/sy92cZ)。 通過應用這一算法,OnCAR
在線地學習並更新從多參數到多指標的複雜的映射關係,並將學習結果傳遞給增量控制器,以不斷更新 DSRC 通信指標,達到自適應優化 DSRC
性能的目的。

圖 13. OnCAR 所採用的基於在線機器學習的控制器

5.3. 性能評估

由於篇幅的限制,具體的
  OnCAR 的性能評估請參見文章:
http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=7524434 和鏈接:
https://sites.google.com/site/xichenmcgill/cameras-and-lidars-are-not-enough。 這裡,我們只給出最終的性能評估結果。

通過收集美國各地交通部門
  (例如加州的伯克利和聖地亞哥的交通安全局) 的交通數據,我們建立了一個數據驅動的性能評估平台。 評估結果顯示,OnCAR 能夠 i) 將
DSRC 的可靠性提升至少 23.7%(以 PDR 為可靠性指標),ii) 將 DSRC 的有效吞吐量提高至少 30.1%, iii) 將
DSRC 的公平性提升至少 40.1%(以 PDR 的變異係數, 即 coefficient of variation, 為指標)。

5.4. 應用 OnCAR 實現交通自動化

以上的性能評估,只是基於
  DSRC 本身的通信性能。 為了進一步展示 OnCAR 增強型 DSRC 對於自動駕駛和自動交通的支持和提升,我們實現了一個名叫
VSmart(鏈接:
https://sites.google.com/site/xichenmcgill/vsmart)的測試平台。 基於此平台,我們錄製了一系列演示視頻,以展示
  OnCAR 增強型 DSRC 是如何支持並提升自動駕駛和自動交通的。

這一系列演示視頻展示了以下幾種先進的自動交通安全應用。 歡迎觀看。

  • 自適應巡航控制 (Adaptive Cruise Control, ACC): 視頻鏈接:https://youtu.be/QQuSGSC6SlM

  • 變道輔助 (Lane Change Assist, LCA): 視頻鏈接: https://youtu.be/1hNIIUnp6AM

  • 路口自動交通調度 (Autonomous Intersection Management): 視頻鏈接: https://youtu.be/Rh4HQjjc3nM

6. 全文要點

  • 僅僅採用攝像頭和 Lidar,是不足以保證自動駕駛車的行車安全的。

  • V2X 技術,特別是 DSRC 技術,能夠輔助現有的自動駕駛技術,有力地提高其安全性能。

  • 我們的 OnCAR 方法具有實時自適應和在線學習的能力,從而能更好地讓 DSRC 服務於自動駕駛和交通自動化。

7. 致謝

我們想要特別感謝徐學鵬、向喬博士和孔令和博士,在搭建 VSmart 平台和錄製演示視頻時所提供的大力支持。

作者簡介

陳熙博士,本科和碩士畢業於上海交通大學,博士畢業於加拿大麥吉爾大學
  McGill University,現任 Nuance 公司自然語言處理研究科學家 (NLP Research
Scientist)。 他參與了多項先進技術的研究工作,其中就包括 i) 應用 V2X
通信提升自動駕駛的安全性,並實現地面交通控制和調度的自動化,和 ii) 整合傳統的控制理論和先進的在線機器學習技術,來全面提升 V2X
通信系統的性能。 他所提出的 OnCAR 方法被美國通用汽車公司研究部門所認可,並有可能被搭載至通用汽車新一代的 V2X
設備上。 同時,他也參與了若干工業界黑科技的開發和部署項目。 例如,使用普通的家用 Wi-Fi 信號,對沒有佩戴任何設備 (包括手機和各類傳感器)
的用戶,進行定位、手勢識別和身份認證。 他所提出的 AutoFi 方法,可以應用現有的家用 Wi-Fi
信號,實現室內定位和導航、智能家居控制、入侵者檢測、老年人智能護理等功能。 這一方法被智能家居初創公司 Aerial.ai
所採用,並做為技術基石,成功地幫助該公司獲得了天使輪和 A 輪的投資。 該方法現已經被廣泛地部署於 Aerial.ai 的客戶端設備當中。

劉學教授本科和碩士畢業於清華大學,博士畢業於美國
  Univ. of Illinois at Urbana-Champaign (UIUC),現任麥吉爾大學計算機係正教授和特聘講席教授
(Chair Professor)。 同時他還擔任全球最大的在線交友 App—Tinder
的首席科學家,領導機器學習、人工智能算法和系統的研發。 他與多家世界著名高校、公司和研究院建立了緊密和良好的合作,其中包括微軟
(Microsoft)、惠普 (HP)、IBM、通用汽車 (GM)、龐巴迪 (Bombardier)、博世 (Bosch)
及多家高科技創業公司。 劉學教授獲得過多項國際科研獎項和榮譽,包括多次國際頂級學術會議的最佳論文獎、加拿大計算機學會 2014
年傑出青年計算機科學家獎、麥吉爾大學湯姆林森科學家獎、加拿大 MITACS 2017 年傑出創新領袖獎, 以及由 IBM Lotus Notes
  的締造者、前任微軟首席軟件架構師(Chief Software Architect)雷·奧茲先生 (Ray Ozzie) 所設立的 Ray
Ozzie 獎學金等。 劉教授還擔任多家國際著名學術期刊的副主編和編委,並參與組織舉辦過 40
多個國際知名會議和研討會。 他在國際頂級學術會議和期刊上累計發表過 280 餘篇論文,有上萬的引用率,並獲得過多項美國專利。

劉學教授實驗室介紹:

McGill
  University
麥吉爾大學是世界著名一流大學。 有很多著名的校友,包括多位加拿大和其他國家的領導人、諾貝爾獎獲得者、普利策獎獲得者、商界領袖、知名運動員和奧運會冠軍、演員、音樂家、藝術家、宇航員、以及 著名的科學家和學術領袖,其中包括現任斯坦福大學校長
  Marc Tessier-Lavign、英屬哥倫比亞大學校長 Santa Ono 和劍橋大學副校長 Stephen Toope
等。 McGill University 所在城市—蒙特利爾是一座富有濃郁學術、文化、創業和時尚氣息的大都市,並被評選為 2017
年世界最適合學生的城市 (「World’s Best City for
Students」),也被譽為當今世界的人工智能中心。 坐落於蒙特利爾市中心的麥吉爾大學計算機學院不但培育了深度學習三大巨頭之一的 Yoshua
Bengio(現任蒙特利爾大學教授),還先後吸引了 Google Deepmind、Facebook AI Research、RBC
等大公司投資建立聯合人工智能實驗室。 蒙特利爾有世界多家高科技公司,如 Google、Microsoft、Facebook、Element AI、
  Nuance、 EA、 Ubisoft、 Airbnb、 Shopify、 Morgan Stanley、 Bombardier、
Expedia、華為、Nokia、Ericsson 等。 劉教授領導的 Cyber​​-Physical Systems (CPS)
實驗室主要從事人工智能、機器學習、大數據、計算機網絡和系統系統在物聯網、自動駕駛、社交網絡,綠色能源等領域的相關研究工作。 CPS
實驗室同時充分利用學校的人工智能研究實力,與多個高科技公司、實驗室、和初創公司合作,致力於培養碩士生、博士生、博士後的理論研究與應用問題相結合的研究和領導能力 ,並為學生創造大量的實習與工作機會。

版權聲明

本文僅代表作者觀點,不代表百度立場。
本文係作者授權百度百家發表,未經許可,不得轉載。

如有侵權請來信告知:酷播亮新聞 » 只用攝像頭和光學雷達是不夠的:Uber的自動駕駛車致死事件