百度在CES Asia上都展示哪些自動駕駛成果?
光是開放數據還不夠,百度是一個技術信仰的公司,我們相信技術能夠改變一切。每一個季度,百度都有一個技術比賽,我們叫做開發馬拉松:大家在有限的時間之內,設定有限的場景和環境,比拼誰的產品和算法做得最好。
本文引用地址:http://www.104case.com/article/201706/360389.htm

今年 1 月從 CES 回來后,我們在內部做了一個技術比武。大家一起在這個平臺比賽,看誰的算法能讓它的收斂變得更加明顯,誰的算法能讓自動駕駛的訓練速度變得更快。最后一共 50 支隊伍報名,我們進行了為期一個月的技術比武。當然,這種技術比武最重要的是交流和共享。我們讓這些勝出的隊伍和我們的團隊工程師們充分進行交流,進而完善算法。通過這樣一個技術比武,我們發現,我們可以再引入一種具有時間記憶的新算法,來實現縱向控制或者更好的橫向控制。

在這個網絡結構里,我們可以從底層的圖像特征本身進行自動提取,它仍然用卷積神經網絡來自動處理。但在縱向控制上,我們引入了一個新的模型:它具有神經記憶功能,不僅僅是通過這張圖片,而是根據過去十張,二十張,甚至一百張圖片來預測出接下來該如何做。這種技術最早也是用于語音識別的研究:LSTM (長短期記憶,long short term memory)。只要是針對連續性行為來做預測,我們就會考慮這種深度記憶的模型,并引入到縱向控制中,這當中的新突破是:車的加速度、減速度變得更加流暢和舒服。





這是我們優化算法之后,在北京測試的一段視頻(如上圖)。鏡頭剛開始,我們看到一個司機,實際上是一個駕校司機,他繞著我們既定的路線在行駛,當他駕駛了幾次之后,我們把他的駕駛行為完整記錄,并訓練出一個深度神經學習的網絡結構。然后我們再把這種網絡結構經過剪層、剪枝、優化,放到汽車上。

長城汽車、英偉達、百度三家一起聯合開發的只基于一個攝像頭和端到端深度學習的自動駕駛展示
BCU:百度計算平臺
在過去的兩年,我和我的同事們拜訪了幾乎所有中國或者是國外主流的 OEM。直到去年,有 OEM 的朋友對我說,你們說的技術很牛,我也知道你們現在做的還不錯,但我不知道應該怎么來使用。一個朋友跟我這么講,我會覺得你為什么會有這樣的問題,但是當多個 OEM 的朋友和我說同樣的問題時,我們就開始反思:我們的技術該如何應用到自動駕駛中?汽車產業鏈非常長,我們進入這一領域之后,才知道 OEM 有 Tier1、Tier2。那么,我們的定位是什么?該如何與這個產業鏈融合?如何將我們的技術應用到量產的汽車上?

反思了這些之后,我們推出了一個新的概念:叫做 BCU(Baidu Computing Unit)。在人工智能時代,所有算法、軟件都需要硬件的搭載,只有將這些能力寄托到硬件上,我們的能力才得以釋放。原來我們更多在與 OEM 交流,在那之后,我們開始與汽車行業的 Tier1、Tier2 來交流這件事情。在與他們的交流中,我們也提出了算法對硬件的要求:需要多大計算能力、多少存儲空間、多少功耗等等。
原來我們更多在與 OEM 交流。在那之后,我們開始與行業的 Tier1、Tier2 來交流這件事情。在與他們的交流中,我們也提出了算法對硬件的要求:需要多大計算能力、多少存儲空間、多少功耗等等。

自定位是自動駕駛一個非常重要的基礎,它要告訴汽車本身在哪。我們定位的方法是基于物理標志物、影像提取和高精地圖來做匹配。橫向定位精度在 0.2 米以內,這樣的定位精度就可以保證汽車能夠在自己車道上行駛,我們現在能做到差不多 98% 或者 99% 的準確率。縱向的定位精度在 2 米,我們現在差不多是在 80% 到 90% 的準確率。對高速自動駕駛來講,這種定位精度其實已經足夠了。
我們把定位能力、感知能力、路線規劃能力與 Tier1 交流后,開發了一個適合于自動駕駛量產的 BCU 硬件。BCU 硬件分為三種:BCU-MLOC(高精定位)、BCU-MLOP(高精定位+環境感知)、BCU-MLOP2(高精定位+環境感知+決策規劃)。有了這種實實在在的硬件后,我們賦能汽車行業,讓整個行業加速的想法才能夠快速實現。
關于阿波羅計劃

(今天)我介紹的所有事情,相比于在我們在 4 月上海車展公布的阿波羅計劃來講,其實都是鳳毛麟角。阿波羅計劃是一套開放、完整,安全的生態系統和架構,它包含了四個層次:參考汽車層,參考硬件層,軟件平臺層、云服務層。任何公司、個人,只要有能力,按照我們參考硬件設計,參考汽車設計,就可以開發出一輛與百度能力一樣的自動駕駛汽車。
自動駕駛是一個完全新增的市場,我們希望為行業提供自己的核心能力,加快整個產業發展,讓自動駕駛更快到來。
評論