您好,登錄后才能下訂單哦!
本周熱門(mén)學(xué)術(shù)研究
對(duì)于機(jī)器人應(yīng)用來(lái)說(shuō),回答目標(biāo)是什么以及目標(biāo)在哪這一問(wèn)題,并提供一種空間和語(yǔ)義不確定性的衡量標(biāo)準(zhǔn),是目標(biāo)檢測(cè)需要優(yōu)先解決的問(wèn)題。
日前,由Google支持的澳大利亞研究委員會(huì)旗下的機(jī)器人卓越視覺(jué)中心開(kāi)啟了第一場(chǎng)關(guān)于概率目標(biāo)檢測(cè)的挑戰(zhàn)賽。計(jì)算機(jī)和機(jī)器人視覺(jué)的挑戰(zhàn)要求參與者檢測(cè)視頻數(shù)據(jù)中的對(duì)象,并提供空間和語(yǔ)義不確定性的準(zhǔn)確估計(jì)。
圖1:示例圖片來(lái)自用來(lái)產(chǎn)生挑戰(zhàn)測(cè)試數(shù)據(jù)的模擬環(huán)境,第一排和左下圖是用于測(cè)試序列的環(huán)境,右下圖是用于驗(yàn)證序列。
這場(chǎng)挑戰(zhàn)沒(méi)有設(shè)置門(mén)檻,人工智能社區(qū)中對(duì)目標(biāo)檢測(cè)有興趣的人都可以參加,這是一場(chǎng)很不錯(cuò)的挑戰(zhàn)。挑戰(zhàn)的測(cè)試數(shù)據(jù)集包含來(lái)自18個(gè)模擬室內(nèi)視頻序列中的56,000多張圖像,將在用于挑戰(zhàn)的公共服務(wù)器中進(jìn)行評(píng)估,該服務(wù)器僅在公開(kāi)比賽階段開(kāi)放。參與者將獲得名次并共享5000澳元獎(jiǎng)金。
這一新的挑戰(zhàn)是對(duì)概率目標(biāo)檢測(cè)的介紹,將現(xiàn)有的目標(biāo)檢測(cè)任務(wù)提升到高端機(jī)器人應(yīng)用中的空間和語(yǔ)義不確定性。總的來(lái)說(shuō),它將提高機(jī)器人應(yīng)用在物體檢測(cè)方面的技術(shù)水平。
更多細(xì)節(jié):
https://nikosuenderhauf.github.io/roboticvisionchallenges/object-detection
原文:
https://arxiv.org/abs/1903.07840
研究人員設(shè)計(jì)了一種系統(tǒng),該系統(tǒng)可以使用單個(gè)輸入圖像從期望的視點(diǎn)為特定對(duì)象生成一組圖像,供移動(dòng)操作機(jī)器人使用。
所提出的方法是一種深層神經(jīng)網(wǎng)絡(luò),訓(xùn)練它從多個(gè)視角“想象”物體的外觀。它將對(duì)象的單個(gè)RGB圖像作為輸入,并返回一組RGB和深度圖像(位深度圖像),從而消除了傳統(tǒng)、耗時(shí)的掃描。
雖然深層神經(jīng)網(wǎng)絡(luò)已經(jīng)實(shí)現(xiàn)了單視角重建,但由于重建過(guò)程計(jì)算量大,很難直接獲得重建對(duì)象的精準(zhǔn)細(xì)節(jié)。該方法采用基于CNN模型的目標(biāo)檢測(cè)器從自然環(huán)境中提取目標(biāo),由神經(jīng)網(wǎng)絡(luò)生成一組RGB和深度圖像(位深度圖像,目前Ps軟件中的位深度為16位)。該方法已在生成圖像和真實(shí)圖像上進(jìn)行了測(cè)試,證明其是非常有效的。
基于圖像生成具有為重建物體提供更好的空間分辨率的潛力。因此,該方法在移動(dòng)操作機(jī)器人領(lǐng)域中是有必要的。這種方法有可能幫助機(jī)器人更好地理解一個(gè)物體的空間屬性,而不需要做一個(gè)完整的掃描。
原文:
https://arxiv.org/abs/1903.06814
由于實(shí)際數(shù)據(jù)和合成數(shù)據(jù)之間存在著領(lǐng)域差距,而且很難將在模擬器中學(xué)習(xí)到的策略傳輸?shù)秸鎸?shí)場(chǎng)景中。在過(guò)去,領(lǐng)域隨機(jī)化(隨機(jī)領(lǐng)域數(shù)據(jù)生成,domain randomization)通過(guò)使用隨機(jī)變換(如隨機(jī)對(duì)象形狀和紋理)增強(qiáng)合成數(shù)據(jù)來(lái)解決這一挑戰(zhàn)。
近年來(lái),研究人員對(duì)領(lǐng)域隨機(jī)化的研究做出了新的貢獻(xiàn),對(duì)Sim2Real遷移的增強(qiáng)技術(shù)進(jìn)行了優(yōu)化,使其能夠在沒(méi)有真實(shí)圖像的情況下實(shí)現(xiàn)與領(lǐng)域無(wú)關(guān)的策略學(xué)習(xí)。
他們?cè)O(shè)計(jì)了一種利用目標(biāo)定位進(jìn)行深度圖像增強(qiáng)的高效搜索方法。在策略學(xué)習(xí)過(guò)程中,利用生成的隨機(jī)變換序列來(lái)增強(qiáng)合成深度圖像。
為了評(píng)估這種遷移的程度,研究人員提出了一種目標(biāo)位置估計(jì)的委托任務(wù),這種任務(wù)只需要很少的真實(shí)數(shù)據(jù)。新方法大大提高了在真實(shí)機(jī)器人上評(píng)估操作任務(wù)的準(zhǔn)確性。
該方法在模擬環(huán)境中促進(jìn)了操作策略的有效學(xué)習(xí)。這是非常有益的,因?yàn)槟M器可以促進(jìn)可伸縮性,并在模型訓(xùn)練期間提供對(duì)底層空間的訪問(wèn)。此外,新的方法不需要真實(shí)圖像來(lái)實(shí)現(xiàn)策略學(xué)習(xí),可以應(yīng)用于各種操作任務(wù)。
原文:
https://arxiv.org/abs/1903.07740
研究人員提出了一種DC-SPP-YOLO方法來(lái)提高YOLOv2目標(biāo)的檢測(cè)精度。DC-SPP方法通過(guò)優(yōu)化基礎(chǔ)網(wǎng)絡(luò)的連接結(jié)構(gòu)來(lái)改進(jìn)YOLOv2,并引入了多尺度局部區(qū)域特征提取。因此,這個(gè)提出的新方法比YOLOv2更精確。
它達(dá)到了接近YOLOv2的目標(biāo)檢測(cè)速度,并且比傳統(tǒng)的目標(biāo)檢測(cè)方法如反卷積單鏡頭檢測(cè)器(DSSD)、標(biāo)度可轉(zhuǎn)移檢測(cè)網(wǎng)絡(luò)(STDN)和YOLOv3更高。
DC-SPP-YOLO特別利用YOLOv2基礎(chǔ)網(wǎng)絡(luò)中卷積層的連接來(lái)加強(qiáng)特征提取,使消失梯度問(wèn)題最小化。在此基礎(chǔ)上,提出了一種改進(jìn)的空間金字塔池,并將多尺度局部區(qū)域特征串聯(lián)起來(lái),使網(wǎng)絡(luò)能夠更全面地學(xué)習(xí)目標(biāo)特征。
基于一種新的損失函數(shù)訓(xùn)練DC-SPP-YOLO模型,該損失函數(shù)由均方誤差和交叉熵組成,能更準(zhǔn)確地實(shí)現(xiàn)目標(biāo)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,DC-SPP-YOLO在PASCAL VOC和UA-DETRAC數(shù)據(jù)集上的mAP均大于YOLOv2。
潛在用途及影響
通過(guò)加強(qiáng)特征提取,利用多尺度局部區(qū)域特征,DC-SPP-YOLO實(shí)現(xiàn)了優(yōu)于YOLOv2的實(shí)時(shí)目標(biāo)檢測(cè)精度。在安全監(jiān)控、醫(yī)療診斷、自動(dòng)駕駛等方面,該方法可用于實(shí)現(xiàn)更精確的、最先進(jìn)的計(jì)算機(jī)視覺(jué)應(yīng)用。
詳情請(qǐng)見(jiàn):
https://arxiv.org/abs/1903.08589
最近的研究提出了一種“智能”的深度學(xué)習(xí)半自動(dòng)分割方法,能夠在醫(yī)學(xué)圖像中對(duì)感興趣的區(qū)域進(jìn)行交互描述。這種提出的方法采用了一種FCNN的架構(gòu)來(lái)執(zhí)行交互式二維醫(yī)學(xué)圖像分割。
那么它是如何使用交互的?網(wǎng)絡(luò)被訓(xùn)練成每次只分割一個(gè)感興趣的區(qū)域,并考慮到用戶以單擊一次或多次鼠標(biāo)的形式輸入的內(nèi)容。該模型還被訓(xùn)練去使用原始2D圖像和一個(gè)“引導(dǎo)信號(hào)”作為輸入。然后它會(huì)輸出特定分割對(duì)象的二進(jìn)制掩碼。研究人員已經(jīng)證明了它可以被用于在腹部CT中分割各種器官。這種新方法提供了非常準(zhǔn)確的結(jié)果,可以根據(jù)用戶的選擇以快速、智能和自發(fā)的方式進(jìn)行糾正。
潛在用途及影響
該方法可以快速地提供高端的二維分割結(jié)果。它也有潛力解決緊迫的臨床挑戰(zhàn),并可用于提高分割精度的眾多醫(yī)學(xué)成像應(yīng)用,如腫瘤定位、手術(shù)規(guī)劃、診斷、手術(shù)內(nèi)導(dǎo)航、虛擬手術(shù)模擬、組織體積測(cè)量等。其他應(yīng)用包括可視化、放射治療規(guī)劃、3D打印、圖像分類、自然語(yǔ)言處理等等。
原文:
https://arxiv.org/abs/1903.08205
其他爆款論文
利用3D點(diǎn)云增強(qiáng)可穿戴機(jī)器人的環(huán)境分類。
原文:
https://arxiv.org/abs/1903.06846v1
用于道路駕駛圖像實(shí)時(shí)語(yǔ)義分割的預(yù)訓(xùn)練模型。
原文:
https://arxiv.org/abs/1903.08469
第一種基于事件的運(yùn)動(dòng)分割數(shù)據(jù)集學(xué)習(xí)方法和事件相機(jī)的學(xué)習(xí)管道。
原文:
https://arxiv.org/abs/1903.07520
即插即用的磁共振成像(MRI)。
原文:
https://arxiv.org/abs/1903.08616
AI新聞
谷歌在德國(guó)作曲家巴赫生日當(dāng)天發(fā)布了AI涂鴉來(lái)紀(jì)念他。
詳情請(qǐng)見(jiàn):First ever AI doodle that allows users to make music.
https://www.newsweek.com/google-doodle-bach-birthday-when-march-21-22-1366826
結(jié)合計(jì)算密集型的人工智能應(yīng)用程序和最近發(fā)布的新人工智能服務(wù)器。
詳情請(qǐng)見(jiàn):AI Server Enabled with NVIDIA GPUs for edge computing
https://www.marketwatch.com/press-release/inspur-releases-edge-computing-ai-server-enabled-with-nvidia-gpus-2019-03-19?mod=mw_quote_news
真的有可能創(chuàng)造出類似人類的人工智能嗎?
詳情請(qǐng)見(jiàn):How to create AI that is more human
Christopher Dossman是Wonder Technologies的首席數(shù)據(jù)科學(xué)家,在北京生活5年。他是深度學(xué)習(xí)系統(tǒng)部署方面的專家,在開(kāi)發(fā)新的AI產(chǎn)品方面擁有豐富的經(jīng)驗(yàn)。除了卓越的工程經(jīng)驗(yàn),他還教授了1000名學(xué)生了解深度學(xué)習(xí)基礎(chǔ)。
LinkedIn:
https://www.linkedin.com/in/christopherdossman/
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。