無人駕駛,暗潮洶涌。
從行業(yè)巨頭行動來看,他們正在抓緊一切機會拉開領(lǐng)跑優(yōu)勢。Autopilot正變成特斯拉的重中之重。
9月26日,特斯拉Version 10.0正式推送。與此同時,特斯拉Autopilot部門成立以來的第一起收購重組正在進(jìn)行。
10月1日,外媒CNBC率先報道,特斯拉已經(jīng)收購自動駕駛感知創(chuàng)業(yè)公司DeepScale。
大洋彼岸的中國,也有進(jìn)展。自動駕駛初創(chuàng)公司小馬智行(Pony.ai)日前發(fā)布消息稱,小馬智行與廣汽集團通過在Aion LX車型正式量產(chǎn)上市前緊密合作,共同打造了全球首款基于該車型的L4級自動駕駛車輛。
據(jù)介紹,該款L4級車型將被應(yīng)用于雙方的無人駕駛示范運營中,并面向公眾提供自動駕駛移動出行服務(wù)。這將L4級無人駕駛應(yīng)用向前推進(jìn)了一大步。
L4級的無人駕駛車輛能干什么?小馬智行和Deepscale的感知深度融合優(yōu)勢體現(xiàn)在哪兒?當(dāng)前無人駕駛領(lǐng)域到底是怎樣一種競爭態(tài)勢?本文將進(jìn)行解讀。
(本文共2600字,閱讀約需要10分鐘)
L4級,從概念到落地
汽車行業(yè)內(nèi)是有兩套關(guān)于智能駕駛分級的標(biāo)準(zhǔn)的,目前主流的方法是根據(jù)智能汽車上可實現(xiàn)功能的差異對車輛進(jìn)行智能化的分級定義,通常分為4到6級。
如根據(jù)2016年美國汽車工程師學(xué)會(SAE)的分類,無人駕駛自動化的程度可以分為六個階段,從L1到L5進(jìn)步的順序依次體現(xiàn)在操作執(zhí)行、環(huán)境監(jiān)控、動態(tài)監(jiān)視任務(wù)和行駛情景。其中,L0級是無任何自動化功能;L1輔助駕駛;L2部分自動駕駛;L3有條件自動;L4高度自動駕駛;L5完全自動駕駛,即真正的無人駕駛。
目前全球基本只處在無人駕駛L2到L3的水平。比如L3級別的奧迪A8 、寶馬5系等等已量產(chǎn)。
L4級別,作為概念被很多無人駕駛企業(yè)提出過,但一直被視為離量產(chǎn)還有距離。
因為根據(jù)L4的分級,已經(jīng)達(dá)到了超高度自動駕駛的程度,也稱為高度自動化。這個級別的自動駕駛汽車可以自主地完成對車輛的操控,對周邊復(fù)雜環(huán)境地監(jiān)測和判斷,具有更高程度的人的意識,可以自主應(yīng)對絕大部分的路面情況。
在2018年11月1日百度世界大會上,百度與一汽共同發(fā)布L4級別無人駕駛乘用車。按照計劃,2019年底實現(xiàn)小批量量產(chǎn),2020年大批量投產(chǎn),首批開放城市將會有北京、長春、海南等。
同時,滴滴在L4級無人駕駛應(yīng)用也進(jìn)行了部署。通過有3個激光雷達(dá)和7個攝像頭,中間層設(shè)有7個攝像頭,以覆蓋車周360度的區(qū)域,滴滴測試車以圖像數(shù)據(jù)來感知周圍障礙物的信息,根據(jù)路線給車輛底層的線控系統(tǒng)發(fā)送控制指令,比如油門、剎車、轉(zhuǎn)向信息,從而控制車輛,實現(xiàn)L4級別的自動駕駛。
2019世界人工智能大會在上海舉行,滴滴創(chuàng)始人、CEO程維在會上提出,“無人駕駛一定可以指數(shù)級降低交通事故發(fā)生,會盡快推動自動駕駛載人測試在上海落地”。目前,滴滴在上海已取得自動駕駛路測牌照。
深度融合方案的競爭
其實,當(dāng)前L4級別量產(chǎn)車的推出也和工信部的規(guī)劃相匹配。
根據(jù)2018年12月工信部印發(fā)了車聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展行動計劃:至2020年,車聯(lián)網(wǎng)用戶滲透率達(dá)到30%以上,新車駕駛輔助系統(tǒng)(L2)搭載率達(dá)到30%以上,聯(lián)網(wǎng)車載信息服務(wù)終端的新車裝配率達(dá)到60%以上。具備高級別自動駕駛功能的智能網(wǎng)聯(lián)汽車實現(xiàn)特定場景規(guī)模應(yīng)用L3級集成技術(shù)水平大幅提升。
L4級別車輛出現(xiàn),對下一步的高度自動化駕駛的落地,起到了極大的支撐作用。
同廣汽集團在Aion LX車型上實現(xiàn)L4級別無人駕駛,背后是小馬智行的技術(shù)沉淀。經(jīng)過多環(huán)境多工況的道路測試和數(shù)據(jù)積累,人工智能在軟硬件優(yōu)化上的突破,小馬智行完成了一次又一次的系統(tǒng)整體優(yōu)化,持續(xù)降低資源占用,更好地支持復(fù)雜的深度學(xué)習(xí)模型。
PonyAlpha還有更優(yōu)化的硬件平臺:激光雷達(dá)、攝像頭、毫米波雷達(dá)等傳感器擁有一體化的適配方式,大大提升集成度和可靠性。基于小馬智行的多傳感器深度融合技術(shù),搭配PonyAlpha方案的車輛能夠根據(jù)不同的路況和駕駛場景智能地得到精準(zhǔn)的感知數(shù)據(jù)。
確實,多傳感器融合目前看來已經(jīng)成了通往自動駕駛的必由之路,更多的傳感器數(shù)據(jù)往往也意味著更高的安全性。
但數(shù)據(jù)融合并不是一件簡單的事,目前的競爭也圍繞在了對于數(shù)據(jù)融合解決方案的競爭上。
我們將目光轉(zhuǎn)回在剛被特斯拉收購的Deepscale。
DeepScale是硅谷一家專注于自動駕駛感知技術(shù)的公司。公司CEO Forrest Iandola接受國內(nèi)科技媒體雷鋒網(wǎng)的采訪時表示,他們能將深度學(xué)習(xí)同時用于攝像頭以外的傳感器數(shù)據(jù)上,如雷達(dá)與激光雷達(dá),并在較為廉價的嵌入式設(shè)備上提供感知解決方案。
Forrest表示,其多傳感器融合方案的優(yōu)勢,一是體現(xiàn)在物體檢測的準(zhǔn)確性上,二是跨傳感器的可移植性(Portability)上。
多傳感器融合分為兩塊,第一塊是傳感器同步技術(shù),第二塊是基于融合數(shù)據(jù)開發(fā)的算法。
簡單的傳感器融合,不外乎就是每個傳感器的數(shù)據(jù)能大致在空間跟時間上能得到對齊。而整個多傳感器融合技術(shù)的核心就在于高精度的時間以及空間同步。
精度到什么量級呢?舉個例子,比如時間上能得到10的-6次方,空間上能得到在一百米外3到5厘米的誤差,這是一個典型的技術(shù)指標(biāo)。當(dāng)然,多傳感器同步技術(shù)的難度與時間和空間的要求是一個指數(shù)級的增加。在百米外能得到3cm的空間精度,換算成角度是0.015度左右。
在無人駕駛當(dāng)中,毫米波雷達(dá)、相機、激光雷達(dá)和超聲波都是完全不同的傳感器,讓他們在時域跟空域上得到這樣的精度是非常難的,需要對機器人技術(shù)以及機器學(xué)習(xí)優(yōu)化技術(shù)有非常深的理解。
所以,多傳感器深度融合技術(shù),極具優(yōu)勢的解決方案,成為能夠決定無人駕駛公司是否能夠跑出來的關(guān)鍵。
在L4曙光已到,L5尚未來臨之前,技術(shù)和方案的不斷優(yōu)化,仍將成為無人駕駛領(lǐng)域的常態(tài)。
來源:搜狐





