計(jì)算機(jī)視覺(jué)技術(shù)賦能自動(dòng)駕駛環(huán)境感知,并非單一技術(shù)的應(yīng)用,而是多種技術(shù)的協(xié)同配合,核心包括“目標(biāo)檢測(cè)與跟蹤、車(chē)道線檢測(cè)、交通信號(hào)與標(biāo)志識(shí)別、語(yǔ)義分割、深度估計(jì)”五大核心技術(shù),每種技術(shù)對(duì)應(yīng)環(huán)境感知的一項(xiàng)核心需求,相互支撐、協(xié)同工作,共同構(gòu)建起自動(dòng)駕駛車(chē)輛的“視覺(jué)感知系統(tǒng)”。下面將從技術(shù)原理、實(shí)現(xiàn)方式、常用算法、技術(shù)難點(diǎn)四個(gè)維度,對(duì)每一項(xiàng)核心技術(shù)進(jìn)行詳細(xì)拆解,兼顧專(zhuān)業(yè)性與易懂性。
(一)目標(biāo)檢測(cè)與跟蹤技術(shù):車(chē)輛“看清”交通參與者的核心
目標(biāo)檢測(cè)與跟蹤技術(shù),是計(jì)算機(jī)視覺(jué)在自動(dòng)駕駛環(huán)境感知中的基礎(chǔ)技術(shù),核心分為“目標(biāo)檢測(cè)”與“目標(biāo)跟蹤”兩個(gè)環(huán)節(jié),二者協(xié)同工作,實(shí)現(xiàn)對(duì)周邊交通參與者的精準(zhǔn)識(shí)別與實(shí)時(shí)跟蹤。
1. 技術(shù)原理
目標(biāo)檢測(cè):通過(guò)算法從車(chē)載攝像頭采集的圖像中,精準(zhǔn)識(shí)別出各類(lèi)目標(biāo)物體(車(chē)輛、行人、騎行者等),并確定目標(biāo)的邊界框(位置)、類(lèi)別(如“轎車(chē)”“行人”)、置信度(識(shí)別準(zhǔn)確率),本質(zhì)上是“從圖像中篩選出有用目標(biāo)、排除無(wú)關(guān)背景”的過(guò)程。目標(biāo)跟蹤:在目標(biāo)檢測(cè)的基礎(chǔ)上,對(duì)識(shí)別到的目標(biāo)進(jìn)行連續(xù)跟蹤,實(shí)時(shí)更新目標(biāo)的位置、速度、運(yùn)動(dòng)方向等信息,確保即使目標(biāo)被短暫遮擋(如被其他車(chē)輛遮擋),也能快速重新識(shí)別并跟蹤,避免目標(biāo)丟失。
2. 常用算法
自動(dòng)駕駛場(chǎng)景的目標(biāo)檢測(cè)與跟蹤,對(duì)“實(shí)時(shí)性與準(zhǔn)確率”要求極高,因此,常用的算法多為深度學(xué)習(xí)-based算法,兼顧速度與精度:
(1)目標(biāo)檢測(cè)算法:主流算法包括YOLO系列(YOLOv5、YOLOv7、YOLOv8)、SSD、Faster R-CNN、RetinaNet等。其中,YOLO系列算法因“實(shí)時(shí)性強(qiáng)、準(zhǔn)確率高”,成為自動(dòng)駕駛場(chǎng)景的主流選擇——例如,YOLOv8算法能夠?qū)崿F(xiàn)每秒30幀以上的實(shí)時(shí)檢測(cè),同時(shí)識(shí)別圖像中的多個(gè)目標(biāo),目標(biāo)識(shí)別準(zhǔn)確率可達(dá)95%以上,能夠滿足自動(dòng)駕駛實(shí)時(shí)感知的需求;Faster R-CNN算法準(zhǔn)確率更高,但實(shí)時(shí)性略弱,多用于對(duì)精度要求極高、速度要求適中的場(chǎng)景(如停車(chē)場(chǎng)自主泊車(chē))。
(2)目標(biāo)跟蹤算法:主流算法包括SORT、DeepSORT、ByteTrack等,均基于“卡爾曼濾波+特征匹配”的核心邏輯。其中,DeepSORT算法在SORT算法的基礎(chǔ)上,加入了深度學(xué)習(xí)特征提取模塊,能夠更好地應(yīng)對(duì)目標(biāo)遮擋、形態(tài)變化等場(chǎng)景,跟蹤穩(wěn)定性更強(qiáng),是自動(dòng)駕駛場(chǎng)景中應(yīng)用最廣泛的目標(biāo)跟蹤算法——例如,當(dāng)行人被車(chē)輛短暫遮擋時(shí),DeepSORT算法可通過(guò)之前提取的行人特征,結(jié)合卡爾曼濾波預(yù)測(cè)的運(yùn)動(dòng)軌跡,快速重新識(shí)別并跟蹤行人。
3. 技術(shù)難點(diǎn)與優(yōu)化方向
核心難點(diǎn):一是目標(biāo)遮擋問(wèn)題,如車(chē)輛被貨車(chē)遮擋、行人被人群遮擋,導(dǎo)致檢測(cè)與跟蹤準(zhǔn)確率下降;二是目標(biāo)形態(tài)多變,如行人彎腰、奔跑,騎行者姿態(tài)不固定,車(chē)輛的車(chē)型、顏色差異較大,影響算法識(shí)別精度;三是極端環(huán)境干擾,如雨天、夜間、大霧天,圖像模糊、光線不足,導(dǎo)致目標(biāo)特征提取不準(zhǔn)確。
優(yōu)化方向:一方面,優(yōu)化算法模型,采用“多尺度特征融合”技術(shù),提升對(duì)小目標(biāo)(如遠(yuǎn)處行人、騎行者)的識(shí)別精度;另一方面,結(jié)合多攝像頭融合(前視、側(cè)視、后視攝像頭),實(shí)現(xiàn)對(duì)目標(biāo)的360°無(wú)死角檢測(cè)與跟蹤,減少遮擋帶來(lái)的影響;同時(shí),通過(guò)大量場(chǎng)景化樣本(雨天、夜間、施工路段)訓(xùn)練算法,提升算法的場(chǎng)景適應(yīng)性。
(二)車(chē)道線檢測(cè)技術(shù):車(chē)輛“找準(zhǔn)”行駛路線的核心
車(chē)道線檢測(cè)技術(shù),是計(jì)算機(jī)視覺(jué)實(shí)現(xiàn)道路結(jié)構(gòu)感知的核心技術(shù),核心目標(biāo)是從車(chē)載攝像頭(主要是前視攝像頭)采集的圖像中,精準(zhǔn)識(shí)別各類(lèi)車(chē)道標(biāo)線,提取車(chē)道線的位置、方向、寬度等信息,為車(chē)道保持、自動(dòng)變道、路徑規(guī)劃等功能提供數(shù)據(jù)支撐。
1. 技術(shù)原理
車(chē)道線檢測(cè)的核心邏輯,是“先對(duì)圖像進(jìn)行預(yù)處理,再提取車(chē)道線特征,最后通過(guò)算法擬合車(chē)道線,確定車(chē)道線的參數(shù)”。具體流程分為三步:一是圖像預(yù)處理,消除圖像噪聲、調(diào)整光線亮度、校正圖像畸變(車(chē)載攝像頭存在一定畸變,需通過(guò)算法校正),突出車(chē)道線特征;二是特征提取,通過(guò)邊緣檢測(cè)(如Canny算法)、閾值分割等技術(shù),提取圖像中車(chē)道線的邊緣特征與顏色特征(車(chē)道線多為白色、黃色,與路面顏色差異較大);三是車(chē)道線擬合,通過(guò)霍夫變換、多項(xiàng)式擬合等算法,對(duì)提取到的車(chē)道線特征進(jìn)行擬合,得到車(chē)道線的數(shù)學(xué)模型,從而確定車(chē)道線的位置、方向、寬度等信息。
2. 常用算法
車(chē)道線檢測(cè)算法主要分為兩大類(lèi):傳統(tǒng)計(jì)算機(jī)視覺(jué)算法與深度學(xué)習(xí)算法,二者在自動(dòng)駕駛場(chǎng)景中協(xié)同應(yīng)用:
(1)傳統(tǒng)算法:主要包括Canny邊緣檢測(cè)+霍夫變換、閾值分割+多項(xiàng)式擬合等,優(yōu)點(diǎn)是計(jì)算量小、實(shí)時(shí)性強(qiáng),缺點(diǎn)是場(chǎng)景適應(yīng)性弱,在車(chē)道線模糊、破損、復(fù)雜路況下,識(shí)別準(zhǔn)確率下降。這類(lèi)算法多用于L2級(jí)輔助駕駛,作為深度學(xué)習(xí)算法的補(bǔ)充。
(2)深度學(xué)習(xí)算法:主流算法包括ENet、U-Net、LaneNet、SCNN等,均基于語(yǔ)義分割或?qū)嵗指畹乃悸?,能夠更好地?yīng)對(duì)復(fù)雜路況。其中,LaneNet算法是專(zhuān)門(mén)針對(duì)車(chē)道線檢測(cè)設(shè)計(jì)的算法,通過(guò)“語(yǔ)義分割+實(shí)例分割”的雙重邏輯,既能識(shí)別車(chē)道線的區(qū)域,又能區(qū)分不同的車(chē)道線(如左側(cè)車(chē)道線、右側(cè)車(chē)道線),識(shí)別精度高、場(chǎng)景適應(yīng)性強(qiáng),是高階自動(dòng)駕駛場(chǎng)景的主流選擇;SCNN算法通過(guò)“空間卷積”技術(shù),提升了車(chē)道線特征的提取精度,能夠更好地應(yīng)對(duì)彎曲車(chē)道線、施工路段等復(fù)雜場(chǎng)景。
3. 技術(shù)難點(diǎn)與優(yōu)化方向
核心難點(diǎn):一是復(fù)雜路況適配,如雨天、大霧天車(chē)道線模糊,路面破損、油污覆蓋導(dǎo)致車(chē)道線不清晰,施工路段的臨時(shí)標(biāo)線與原有標(biāo)線沖突;二是彎曲車(chē)道線與匝道場(chǎng)景,彎曲車(chē)道線的擬合難度較大,匝道場(chǎng)景的車(chē)道線較窄、坡度較大,影響識(shí)別精度;三是光線干擾,夜間光線不足、白天強(qiáng)光逆光,導(dǎo)致車(chē)道線特征不明顯。
優(yōu)化方向:一是融合多模態(tài)數(shù)據(jù),結(jié)合毫米波雷達(dá)的距離信息,提升車(chē)道線檢測(cè)的精度與穩(wěn)定性;二是采用“自適應(yīng)閾值”技術(shù),根據(jù)不同場(chǎng)景的光線、路面條件,自動(dòng)調(diào)整算法參數(shù),提升場(chǎng)景適應(yīng)性;三是通過(guò)大量復(fù)雜場(chǎng)景樣本訓(xùn)練算法,讓算法自主學(xué)習(xí)不同路況下的車(chē)道線特征,提升識(shí)別準(zhǔn)確率。
(三)交通信號(hào)與標(biāo)志識(shí)別技術(shù):車(chē)輛“讀懂”交通規(guī)則的核心
交通信號(hào)與標(biāo)志識(shí)別技術(shù),是計(jì)算機(jī)視覺(jué)實(shí)現(xiàn)交通規(guī)則解讀的核心技術(shù),核心目標(biāo)是精準(zhǔn)識(shí)別交通燈、交通標(biāo)志、標(biāo)線指示等交通元素,解讀其含義,為決策層提供符合交通規(guī)則的決策依據(jù),確保車(chē)輛自主行駛時(shí)嚴(yán)格遵守交通規(guī)則。
1. 技術(shù)原理
交通信號(hào)與標(biāo)志識(shí)別,本質(zhì)上是“目標(biāo)檢測(cè)+圖像分類(lèi)”的結(jié)合,分為兩個(gè)核心環(huán)節(jié):一是目標(biāo)檢測(cè),從圖像中精準(zhǔn)識(shí)別出交通燈、交通標(biāo)志的位置,確定其邊界框;二是圖像分類(lèi),對(duì)檢測(cè)到的交通燈、交通標(biāo)志進(jìn)行分類(lèi),解讀其含義(如“紅燈”表示停止、“限速60”表示最高時(shí)速60km/h、“左轉(zhuǎn)箭頭”表示允許左轉(zhuǎn))。
其中,交通燈識(shí)別還需要額外判斷燈光的顏色與狀態(tài)(如紅燈亮、綠燈亮、黃燈閃爍),交通標(biāo)志識(shí)別需要區(qū)分不同類(lèi)型的標(biāo)志(禁令、警告、指示),同時(shí)解讀標(biāo)志上的文字、數(shù)字信息(如限速標(biāo)志的數(shù)字、指示標(biāo)志的方向)。
2. 常用算法
(1)交通燈識(shí)別算法:主流算法包括YOLO系列算法(用于目標(biāo)檢測(cè))+ CNN分類(lèi)器(用于顏色識(shí)別)、RetinaNet + LSTM(用于動(dòng)態(tài)交通燈狀態(tài)識(shí)別)等。例如,通過(guò)YOLOv8算法檢測(cè)到交通燈的位置,再通過(guò)CNN分類(lèi)器識(shí)別交通燈的顏色(紅、綠、黃),結(jié)合LSTM算法判斷交通燈的狀態(tài)(如黃燈閃爍、綠燈即將變紅),確保識(shí)別的準(zhǔn)確性。
(2)交通標(biāo)志識(shí)別算法:主流算法包括Faster R-CNN、YOLO系列、SSD等目標(biāo)檢測(cè)算法,結(jié)合ResNet、MobileNet等分類(lèi)算法,實(shí)現(xiàn)對(duì)交通標(biāo)志的檢測(cè)與分類(lèi)。其中,MobileNet算法因“輕量化、實(shí)時(shí)性強(qiáng)”,成為車(chē)載終端的主流選擇——能夠在保證識(shí)別精度的前提下,降低計(jì)算量,適配車(chē)載硬件的性能限制;同時(shí),通過(guò)OCR(光學(xué)字符識(shí)別)技術(shù),解讀交通標(biāo)志上的文字、數(shù)字信息(如限速標(biāo)志、距離提示標(biāo)志)。
3. 技術(shù)難點(diǎn)與優(yōu)化方向
核心難點(diǎn):一是交通標(biāo)志的多樣性與差異性,不同地區(qū)的交通標(biāo)志樣式、尺寸存在差異,部分標(biāo)志被遮擋、磨損、污漬覆蓋,影響識(shí)別精度;二是交通燈的安裝位置不固定,部分交通燈安裝較高、角度較偏,導(dǎo)致圖像中交通燈區(qū)域較小,識(shí)別難度較大;三是復(fù)雜環(huán)境干擾,如雨天、夜間、大霧天,圖像模糊、光線不足,導(dǎo)致交通燈顏色識(shí)別、交通標(biāo)志特征提取不準(zhǔn)確。
優(yōu)化方向:一是構(gòu)建多地區(qū)、多場(chǎng)景的交通信號(hào)與標(biāo)志樣本庫(kù),訓(xùn)練算法的泛化能力,適配不同地區(qū)的交通規(guī)則;二是采用“圖像增強(qiáng)”技術(shù),提升復(fù)雜環(huán)境下圖像的清晰度,突出交通信號(hào)與標(biāo)志的特征;三是融合多攝像頭數(shù)據(jù),通過(guò)前視、側(cè)視攝像頭協(xié)同,實(shí)現(xiàn)對(duì)交通信號(hào)與標(biāo)志的全方位識(shí)別,減少遮擋帶來(lái)的影響。
(四)語(yǔ)義分割技術(shù):車(chē)輛“理解”環(huán)境語(yǔ)義的核心
語(yǔ)義分割技術(shù),是計(jì)算機(jī)視覺(jué)實(shí)現(xiàn)場(chǎng)景語(yǔ)義理解的高階技術(shù),核心目標(biāo)是將車(chē)載攝像頭采集的路面圖像,分割為不同的語(yǔ)義區(qū)域(如車(chē)道區(qū)域、人行道、非機(jī)動(dòng)車(chē)道、綠化帶、施工區(qū)域、障礙物區(qū)域),并為每個(gè)區(qū)域標(biāo)注語(yǔ)義類(lèi)別,讓車(chē)輛明確自身所處的環(huán)境語(yǔ)義,理解“哪里可以走、哪里不能走”,為高階自動(dòng)駕駛的路徑規(guī)劃、避障決策提供核心支撐。
1. 技術(shù)原理
語(yǔ)義分割的核心邏輯,是“對(duì)圖像中的每一個(gè)像素點(diǎn)進(jìn)行分類(lèi),確定每個(gè)像素點(diǎn)屬于哪一類(lèi)語(yǔ)義區(qū)域”,本質(zhì)上是“像素級(jí)的目標(biāo)識(shí)別”。與目標(biāo)檢測(cè)(只識(shí)別目標(biāo)的邊界框)不同,語(yǔ)義分割能夠精準(zhǔn)劃分不同語(yǔ)義區(qū)域的邊界,讓車(chē)輛更清晰地理解周邊環(huán)境的結(jié)構(gòu)——例如,通過(guò)語(yǔ)義分割,車(chē)輛能夠明確區(qū)分“車(chē)道區(qū)域”與“人行道區(qū)域”,避免駛?cè)肴诵械?;能夠區(qū)分“施工區(qū)域”與“正常車(chē)道”,提前規(guī)避施工風(fēng)險(xiǎn)。
語(yǔ)義分割的實(shí)現(xiàn)流程,主要分為三步:一是圖像預(yù)處理,消除噪聲、調(diào)整光線、校正畸變,提升圖像質(zhì)量;二是特征提取,通過(guò)深度學(xué)習(xí)模型(如卷積神經(jīng)網(wǎng)絡(luò)),提取圖像的多尺度特征,捕捉不同語(yǔ)義區(qū)域的特征差異;三是像素分類(lèi),通過(guò)全連接層、卷積層等結(jié)構(gòu),對(duì)每個(gè)像素點(diǎn)進(jìn)行分類(lèi),輸出語(yǔ)義分割掩碼(mask),標(biāo)注每個(gè)像素點(diǎn)的語(yǔ)義類(lèi)別。
2. 常用算法
自動(dòng)駕駛場(chǎng)景的語(yǔ)義分割,對(duì)“精度與實(shí)時(shí)性”要求較高,常用的深度學(xué)習(xí)算法包括:
(1)經(jīng)典語(yǔ)義分割算法:ENet、U-Net、FCN、SegNet等,其中,U-Net算法因“分割精度高、能夠捕捉細(xì)節(jié)特征”,成為語(yǔ)義分割的基礎(chǔ)算法,適用于對(duì)精度要求較高的場(chǎng)景;ENet算法因“輕量化、計(jì)算量小”,適用于車(chē)載終端,能夠滿足實(shí)時(shí)性需求。
(2)高階語(yǔ)義分割算法:DeepLab系列(DeepLabv3+、DeepLabv4)、PSPNet、HRNet等,這些算法通過(guò)“空洞卷積”“金字塔池化”等技術(shù),提升了語(yǔ)義分割的精度與感受野,能夠更好地應(yīng)對(duì)復(fù)雜場(chǎng)景。其中,DeepLabv3+算法是自動(dòng)駕駛場(chǎng)景中應(yīng)用最廣泛的語(yǔ)義分割算法,能夠精準(zhǔn)分割各類(lèi)語(yǔ)義區(qū)域,同時(shí)兼顧實(shí)時(shí)性與精度,適用于城市道路、高速道路等多種場(chǎng)景。
3. 技術(shù)難點(diǎn)與優(yōu)化方向
核心難點(diǎn):一是分割精度與實(shí)時(shí)性的平衡,語(yǔ)義分割是像素級(jí)的識(shí)別,計(jì)算量較大,若追求高精度,會(huì)影響實(shí)時(shí)性;若追求實(shí)時(shí)性,會(huì)降低分割精度,難以適配自動(dòng)駕駛的實(shí)時(shí)感知需求;二是復(fù)雜場(chǎng)景的語(yǔ)義混淆,如雨天、大霧天,不同語(yǔ)義區(qū)域的特征差異不明顯,容易出現(xiàn)分割錯(cuò)誤(如將綠化帶誤判為車(chē)道區(qū)域);三是小語(yǔ)義區(qū)域的分割難度大,如路面上的井蓋、小障礙物,像素占比較小,難以精準(zhǔn)分割。
優(yōu)化方向:一是采用“輕量化網(wǎng)絡(luò)結(jié)構(gòu)”(如MobileNet、ShuffleNet),在保證分割精度的前提下,降低計(jì)算量,提升實(shí)時(shí)性;二是采用“多尺度特征融合”技術(shù),提升對(duì)小語(yǔ)義區(qū)域的分割精度;三是融合多模態(tài)數(shù)據(jù)(如激光雷達(dá)的點(diǎn)云數(shù)據(jù)),彌補(bǔ)計(jì)算機(jī)視覺(jué)語(yǔ)義分割的不足,提升分割的穩(wěn)定性與準(zhǔn)確性。
(五)深度估計(jì)技術(shù):車(chē)輛“判斷”距離的核心
深度估計(jì)技術(shù),是計(jì)算機(jī)視覺(jué)實(shí)現(xiàn)“距離感知”的核心技術(shù),核心目標(biāo)是通過(guò)車(chē)載攝像頭采集的圖像,計(jì)算車(chē)輛與周邊目標(biāo)物體(車(chē)輛、行人、障礙物)、道路元素(車(chē)道線、交通燈)的距離,為避障決策、速度控制提供核心數(shù)據(jù)支撐——例如,當(dāng)檢測(cè)到前方車(chē)輛距離過(guò)近時(shí),決策層可及時(shí)發(fā)出剎車(chē)指令,規(guī)避碰撞風(fēng)險(xiǎn)。
與激光雷達(dá)(直接測(cè)量距離)不同,計(jì)算機(jī)視覺(jué)的深度估計(jì)的是“通過(guò)圖像特征間接計(jì)算距離”,分為單目視覺(jué)深度估計(jì)與雙目視覺(jué)深度估計(jì)兩種方式,二者在自動(dòng)駕駛場(chǎng)景中協(xié)同應(yīng)用。
1. 技術(shù)原理
(1)單目視覺(jué)深度估計(jì):通過(guò)單個(gè)車(chē)載攝像頭采集的圖像,結(jié)合圖像中的紋理特征、大小特征、透視關(guān)系,間接計(jì)算距離——例如,同一物體在圖像中越大,說(shuō)明距離車(chē)輛越近;越小,說(shuō)明距離車(chē)輛越遠(yuǎn);通過(guò)透視關(guān)系,可判斷車(chē)道線的距離與寬度。其核心難點(diǎn)是“距離估計(jì)的精度較低”,受圖像質(zhì)量、目標(biāo)形態(tài)的影響較大,多用于對(duì)距離精度要求不高的場(chǎng)景(如L2級(jí)輔助駕駛的前方碰撞預(yù)警)。
(2)雙目視覺(jué)深度估計(jì):通過(guò)兩個(gè)車(chē)載攝像頭(模擬人類(lèi)的雙眼)采集同一場(chǎng)景的兩張圖像,利用兩張圖像的視差(像素差異),計(jì)算車(chē)輛與目標(biāo)物體的距離,視差越大,距離越近;視差越小,距離越遠(yuǎn)。其核心優(yōu)勢(shì)是“距離估計(jì)精度高、實(shí)時(shí)性強(qiáng)”,能夠滿足高階自動(dòng)駕駛的距離感知需求,缺點(diǎn)是硬件成本較高、校準(zhǔn)難度較大,需要對(duì)兩個(gè)攝像頭進(jìn)行精準(zhǔn)校準(zhǔn),避免視差誤差。
2. 常用算法
(1)單目視覺(jué)深度估計(jì)算法:主流算法包括基于傳統(tǒng)視覺(jué)的算法(如SIFT特征匹配+透視變換)、基于深度學(xué)習(xí)的算法(如Monodepth、DepthNet、DORN等)。其中,Monodepth系列算法是單目深度估計(jì)的主流選擇,通過(guò)深度學(xué)習(xí)模型,自主學(xué)習(xí)圖像特征與距離的映射關(guān)系,提升距離估計(jì)的精度,適用于車(chē)載場(chǎng)景。
(2)雙目視覺(jué)深度估計(jì)算法:主流算法包括SGBM、BM、GC-Net、PSMNet等。其中,SGBM算法因“計(jì)算速度快、精度高”,成為雙目深度估計(jì)的主流算法,能夠?qū)崟r(shí)計(jì)算目標(biāo)距離;PSMNet算法通過(guò)“金字塔立體匹配”技術(shù),提升了復(fù)雜場(chǎng)景下的深度估計(jì)精度,適用于雨天、夜間等復(fù)雜場(chǎng)景。
3. 技術(shù)難點(diǎn)與優(yōu)化方向
核心難點(diǎn):一是單目深度估計(jì)的精度不足,受圖像質(zhì)量、目標(biāo)形態(tài)、場(chǎng)景變化的影響較大;二是雙目深度估計(jì)的校準(zhǔn)難度大,兩個(gè)攝像頭的安裝位置、角度存在微小偏差,就會(huì)導(dǎo)致視差誤差,影響距離估計(jì)精度;三是復(fù)雜環(huán)境干擾,如雨天、大霧天、夜間,圖像模糊、光線不足,導(dǎo)致視差計(jì)算不準(zhǔn)確,距離估計(jì)精度下降。
優(yōu)化方向:一是融合激光雷達(dá)數(shù)據(jù),彌補(bǔ)計(jì)算機(jī)視覺(jué)深度估計(jì)的精度不足,實(shí)現(xiàn)“視覺(jué)+激光雷達(dá)”的融合感知,提升距離估計(jì)的穩(wěn)定性與準(zhǔn)確性;二是優(yōu)化雙目攝像頭的校準(zhǔn)算法,降低校準(zhǔn)難度,減少視差誤差;三是通過(guò)大量復(fù)雜場(chǎng)景樣本訓(xùn)練深度估計(jì)算法,提升算法的場(chǎng)景適應(yīng)性,減少環(huán)境干擾帶來(lái)的影響。
總結(jié):五大核心技術(shù)構(gòu)成了
計(jì)算機(jī)視覺(jué)賦能自動(dòng)駕駛環(huán)境感知的“技術(shù)底座”——目標(biāo)檢測(cè)與跟蹤負(fù)責(zé)“看清”交通參與者,車(chē)道線檢測(cè)負(fù)責(zé)“找準(zhǔn)”行駛路線,交通信號(hào)與標(biāo)志識(shí)別負(fù)責(zé)“讀懂”交通規(guī)則,語(yǔ)義分割負(fù)責(zé)“理解”環(huán)境語(yǔ)義,深度估計(jì)負(fù)責(zé)“判斷”距離,五種技術(shù)協(xié)同配合,實(shí)現(xiàn)了自動(dòng)駕駛車(chē)輛對(duì)周邊環(huán)境的全面、精準(zhǔn)、實(shí)時(shí)感知。