您好,登錄后才能下訂單哦!
近期,阿里巴巴達摩院的一篇論文入選計算機視覺頂會 CVPR 2020,該論文提出了一個通用、高性能的自動駕駛檢測器,首次實現(xiàn) 3D 物體檢測精度與速度的兼得,有效提升自動駕駛系統(tǒng)安全性能。
3D 目標檢測需輸出物體類別及在三維空間中的長寬高、旋轉(zhuǎn)角等信息
與普通的 2D 圖像識別應(yīng)用不同,自動駕駛系統(tǒng)對精度和速度的要求更高,檢測器不僅需要快速識別周圍環(huán)境的物體,還要對物體在三維空間中的位置做精準定位。然而,目前主流的單階段檢測器和兩階段檢測器均無法平衡檢測精度和速度,這極大地限制了自動駕駛安全性能。
此次,達摩院在論文中提出了新的思路即將兩階段檢測器中對特征進行細粒度刻畫的方法集成到單階段檢測器。具體來說,達摩院在訓(xùn)練中利用一個輔助網(wǎng)絡(luò)將單階段檢測器中的體素特征轉(zhuǎn)化為點級特征,并施加一定的監(jiān)督信號,同時在模型推理過程中輔助網(wǎng)絡(luò)無需參與計算,因此,在保障速度的同時又提高了檢測精度。
以下是第一作者 Chenhang He 對該論文做出的解讀:
目標檢測是計算機視覺領(lǐng)域的傳統(tǒng)任務(wù),與圖像識別不同,目標檢測不僅需要識別出圖像上存在的物體,給出對應(yīng)的類別,還需要將該物體通過 Bounding box 進行定位。根據(jù)目標檢測需要輸出結(jié)果的不同,一般將使用 RGB 圖像進行目標檢測,輸出物體類別和在圖像上 2D bounding box 的方式稱為 2D 目標檢測。而將使用 RGB 圖像、RGB-D 深度圖像和激光點云,輸出物體類別及在三維空間中的長寬高、旋轉(zhuǎn)角等信息的檢測稱為 3D 目標檢測。
從點云數(shù)據(jù)進行 3D 目標檢測是自動駕駛(AV)系統(tǒng)中的的關(guān)鍵組件。與僅從圖像平面估計 2D 邊界框的普通 2D 目標檢測不同,AV 需要從現(xiàn)實世界估計更具信息量的 3D 邊界框,以完成諸如路徑規(guī)劃和避免碰撞之類的高級任務(wù)。這激發(fā)了最近出現(xiàn)的 3D 目標檢測方法,該方法應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)(CNN)處理來自高端 LiDAR 傳感器的點云數(shù)據(jù)。
目前基于點云的 3D 物體檢測主要有兩種架構(gòu):
目前業(yè)界主要以單階段檢測器為主,這樣能保證檢測器能高效地在實時系統(tǒng)上進行。 我們提出的方案將兩階段檢測器中對特征進行細粒度刻畫的思想移植到單階段檢測中,通過在訓(xùn)練中利用一個輔助網(wǎng)絡(luò)將單階段檢測器中的體素特征轉(zhuǎn)化為點級特征,并施加一定的監(jiān)督信號,從而使得卷積特征也具有結(jié)構(gòu)感知能力,進而提高檢測精度。而在做模型推斷時,輔助網(wǎng)絡(luò)并不參與計算(detached), 進而保證了單階段檢測器的檢測效率。另外我們提出一個工程上的改進,Part-sensitive Warping (PSWarp), 用于處理單階段檢測器中存在的 “框 - 置信度 - 不匹配” 問題。
用于部署的檢測器, 即推斷網(wǎng)絡(luò), 由一個骨干網(wǎng)絡(luò)和檢測頭組成。骨干網(wǎng)絡(luò)用 3D 的稀疏網(wǎng)絡(luò)實現(xiàn),用于提取含有高語義的體素特征。檢測頭將體素特征壓縮成鳥瞰圖表示,并在上面運行 2D 全卷積網(wǎng)絡(luò)來預(yù)測 3D 物體框。
在訓(xùn)練階段,我們提出一個輔助網(wǎng)絡(luò)來抽取骨干網(wǎng)絡(luò)中間層的卷積特征,并將這些特征轉(zhuǎn)化成點級特征 (point-wise feature)。在實現(xiàn)上,我們將卷積特征中的非零信號映射到原始的點云空間中, 然后在每個點上進行插值,這樣我們就能獲取卷積特征的點級表示。 令 {():j=0,…,M} 為卷積特征在空間中的表示, {:i=0,…,N}為原始點云, 則卷積特征在原始點上的表示 等于
我們提出兩種基于點級特征的監(jiān)督策略來幫助卷積特征獲得很好的結(jié)構(gòu)感知力,一個前景分割任務(wù),一個中心點回歸任務(wù)。
具體來說,相比于 PointNet 特征提取器 (a), 卷積網(wǎng)絡(luò)中的卷積操作和下采樣會造成點云結(jié)構(gòu)的破壞(b)使得特征對物體的邊界與內(nèi)部結(jié)構(gòu)不敏感。我們利用分割任務(wù)來保證部分卷積特征在下采樣時不會被背景特征影響 ?,從而加強對邊界的感知。我們利用中心點回歸任務(wù)來加強卷積特征對物體內(nèi)部結(jié)構(gòu)的感知能力 (d),使得在少量點的情況下也能合理的推斷出物體的潛在大小、形狀。我們使用 focal loss 和 smooth-l1 對分割任務(wù)與中心回歸任務(wù)分辨進行優(yōu)化。
在單階段檢測中, feature map 和 anchor 的對齊問題是普遍存在的問題, 這樣會導(dǎo)致預(yù)測出來的邊界框的定位質(zhì)量與置信度不匹配,這會影響在后處理階段(NMS)時, 高置信度但低定位質(zhì)量的框被保留, 而定位質(zhì)量高卻置信度低的框被丟棄。在 two-stage 的目標檢測算法中,RPN 提取 proposal,然后會在 feature map 上對應(yīng)的的位置提取特征(roi-pooling 或者 roi-align),這個時候新的特征和對應(yīng)的 proposal 是對齊的。我們提出了一個基于 PSRoIAlign 的改進,Part-sensitive Warping (PSWarp), 用來對預(yù)測框進行重打分。
如上圖, 我們首先修改最后的分類層以生成 K 個部分敏感的特征圖,用{X_k:k = 1,2,…,K}表示,每個圖都編碼對象的特定部分的信息。例如,在 K = 4 的情況下,會生成 {左上,右上,左下,右下} 四個局部敏感的特征圖。同時,我們將每個預(yù)測邊界框劃分為 K 個子窗口,然后選擇每個子窗口的中心位置作為采樣點。這樣,我們可以生成 K 個采樣網(wǎng)格{S^k:k = 1,2,…,K},每個采樣網(wǎng)格都與該局部對應(yīng)的特征圖相關(guān)聯(lián)。如圖所示,我們利用采樣器, 用生成的采樣網(wǎng)格在對應(yīng)的局部敏感特征圖上進行采樣,生成對齊好的特征圖。最終能反映置信度的特征圖則是 K 個對齊好特征圖的平均。
我們提出的方法 (黑色) 在 KITTI 數(shù)據(jù)庫上的 PR Curve, 其中實線為兩階段方法, 虛線為單階段方法。 可以看到我們作為單階段方法能夠達到兩階段方法才能達到的精度。
在 KITTI 鳥瞰 (BEV) 和 3D 測試集的效果。優(yōu)點是在保持精度的同時,不增加額外的計算量,能達到 25FPS 的檢測速度。
第一作者為達摩院研究實習(xí)生 Chenhang He,其他作者分別分別為達摩院高級研究員、IEEE Fellow 華先勝,達摩院高級研究員、香港理工大學(xué)電子計算學(xué)系講座教授、IEEE Fellow 張磊,達摩院資深算法專家黃建強及達摩院研究實習(xí)生 Hui Zeng。
原文鏈接: https://developer.aliyun.com/article/752688
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。