您好,登錄后才能下訂單哦!
作者:Amusi
Date:2019-11-26
微信公眾號(hào): CVer
鏈接: 一文看盡8篇目標(biāo)檢測最新論文(EfficientDet/EdgeNet/ASFF/RoIMix/SCL/EFGRNet等)
計(jì)算機(jī)視覺論文速遞 專欄有段時(shí)間沒有更新論文速遞了,這段時(shí)間的論文很多,但比較亮眼的論文并也不多。為了方便大家閱讀,我已經(jīng)將其中的 目標(biāo)檢測(Object Detection)論文整理出來。也推薦大家關(guān)注 計(jì)算機(jī)視覺論文速遞 ,可以更快了解到CV的好內(nèi)容!
本文分享的目標(biāo)檢測論文將同步推送到 github上,歡迎大家 star/fork(點(diǎn)擊閱讀原文,也可直接訪問):
amusi/awesome-object-detection github.com注意事項(xiàng):
【1】SCL: Towards AccurateDomain Adaptive Object Detection via Gradient Detach Based Stacked Complementary Losses
時(shí)間:20191108
作者:CMU&印度理工學(xué)院
鏈接: https://arxiv.org/abs/1911.0255 9
注:SCL域自適應(yīng)目標(biāo)檢測網(wǎng)絡(luò),性能優(yōu)于MAF(ICCV'19)和Strong-Weak(CVPR'19)
【2】Localization-aware Channel Pruning for Object Detection
時(shí)間:20191109
作者:華中科技大學(xué)
鏈接: https://arxiv.org/abs/1911.0223 7
注:性能優(yōu)于DCP、ThiNet,可對SSD剪枝70%參數(shù)
【3】RoIMix: Proposal-Fusion among Multiple Images for Underwater Object Detection
時(shí)間:20191112
作者:北大&鵬城實(shí)驗(yàn)室&騰訊
鏈接: https://arxiv.org/abs/1911.0302 9
注:水下目標(biāo)檢測,有點(diǎn)東西的
【4】Model Adaption Object Detection System for Robot
時(shí)間:20191113
作者:西安交通大學(xué)
鏈接: https://arxiv.org/abs/1911.0271 8
注:解決機(jī)器人靠近物體的移動(dòng)過程中,對物體保持穩(wěn)定的檢測。檢測和速度性能優(yōu)于YOLOv3!
【5】EdgeNet: Balancing Accuracy and Performance for Edge-based Convolutional Neural Network Object Detectors
時(shí)間:20191117
作者:塞浦路斯大學(xué)
鏈接: https://arxiv.org/abs/1911.0609 1
注:EdgeNet 速度和精度均優(yōu)于Tiny-YOLO V3和DroNet,功耗僅4W!可在樹莓派、CPU上實(shí)時(shí)運(yùn)行
【6】Enriched Feature Guided Refinement Network for Object Detection
時(shí)間:2019(ICCV 2019)
作者:天津大學(xué)&IIAI
http://openaccess.thecvf.com/c ontent_ICCV_2019/papers/Nie_Enriched_Feature_Guided_Refinement_Network_for_Object_Detection_ICCV_2019_paper.pdf
代碼: https://github.com/Ranchentx/EF GRNet
注:EFGRNet是基于SSD改進(jìn)的Single-Stage檢測網(wǎng)絡(luò),在COCO上可達(dá)46ms/39.0mAP(512x512),現(xiàn)已開源!
【7】EfficientDet: Scalable and Efficient Object Detection
時(shí)間:20191122
作者:谷歌大腦(Quoc V. L大佬)
鏈接: https://arxiv.org/abs/1911.0907 0
代碼:即將開源
注:本文提出BiFPN和EfficientDet,在COCO上高達(dá)51.0 mAP!是目前在沒有做多尺度測試下最強(qiáng)的目標(biāo)檢測網(wǎng)絡(luò)!
【8】Learning Spatial Fusion for Single-Shot Object Detection
時(shí)間:20191122
作者:北京航空航天大學(xué)
鏈接: https://arxiv.org/abs/1911.0951 6
代碼: https://github.com/ruinmessi/AS FF
注:YOLOv3+ASFF(自適應(yīng)空間特征融合)組合,性能優(yōu)于CornerNet和CenterNet等,在COCO上,38.1mAP/60 FPS,43.9mAP/29FPS!
為了方便下載,我已經(jīng)將上述論文打包:
百度云鏈接: https://pan.baidu.com/s/1muHIJr DKu-uQcagArfmOLA
提取碼:yjqu
更多目標(biāo)檢測論文詳見: https://github.com/amusi/awesom e-object-detection
如果各位CVer喜歡這樣的盤點(diǎn),請給這篇文章點(diǎn)個(gè)贊,如果點(diǎn)贊的人多,其它CV方向的大盤點(diǎn)系列也會(huì)盡快推出!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。