溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

如何理解Tensorflow中的GER-VNet

發(fā)布時(shí)間:2021-11-17 10:00:26 來源:億速云 閱讀:189 作者:柒染 欄目:大數(shù)據(jù)

如何理解Tensorflow中的GER-VNet,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

一、常規(guī)卷積網(wǎng)絡(luò)的局限性

1、常規(guī)的卷積神經(jīng)網(wǎng)絡(luò)只能利用變化的平移,而忽略醫(yī)學(xué)圖像中存在的其它固有對稱性,例如旋轉(zhuǎn)和反射。為了緩解這一缺點(diǎn),本文提出新穎的組不變性分割框架,其通過編碼那些固有的對稱性來學(xué)習(xí)更精確的表達(dá)。首先,在每個方向上都設(shè)計(jì)了基于核的不變運(yùn)算,可以有效地解決現(xiàn)有方法中學(xué)習(xí)對稱性的問題。然后,為使分割網(wǎng)絡(luò)保持全局等價(jià),設(shè)計(jì)了具有分層對稱約束的獨(dú)特組層。通過利用更多的對稱性,新穎的分割CNN可以比常規(guī)CNN大大降低樣本復(fù)雜度和過濾器的冗余(大約2/3)。

2、為了讓常規(guī)CNN擁有更多的對稱屬性,常見有三個策略方法。第一個是數(shù)據(jù)增強(qiáng),是常見的有效方法,雖然數(shù)據(jù)增強(qiáng)可以讓CNN學(xué)習(xí)到不同變換特征,但是學(xué)習(xí)到的CNN特征參數(shù)大小會變大從而導(dǎo)致特征參數(shù)過度冗余,過擬合風(fēng)險(xiǎn)也越高。此外,這類軟約束不能保證訓(xùn)練好的CNN模型在測試數(shù)據(jù)或訓(xùn)練數(shù)據(jù)上具有不變性。第二個是在現(xiàn)有旋轉(zhuǎn)不變網(wǎng)絡(luò)中可以在每一層維持多個旋轉(zhuǎn)特征圖,并且易于實(shí)現(xiàn)。但是在每一層旋轉(zhuǎn)和重復(fù)原始特征輸出,大大增加了存儲需求。第三個是通過作用于濾波器的旋轉(zhuǎn)等變性的方式,這已經(jīng)成為一個有希望的方向。盡管旋轉(zhuǎn)的卷積核可以在每個卷積層的不同方向上實(shí)現(xiàn)局部對稱,但是這些解決方案通過會限制了網(wǎng)絡(luò)的深度和全局旋轉(zhuǎn)不變性,這是由于維數(shù)爆炸和方向池化操作產(chǎn)生了加劇噪聲所致。

3、論文靈感來自于圖像常規(guī)分類中的組不變CNN。通過將平移,旋轉(zhuǎn)和反射結(jié)合在一起來建立對稱組,以顯著提高每個內(nèi)核的利用率并減少過濾器的數(shù)量。設(shè)計(jì)了強(qiáng)大的分層約束以確保每個網(wǎng)絡(luò)的均等性并具有嚴(yán)格的數(shù)學(xué)證明。在過濾器而不是特征圖上執(zhí)行等變變換,以減少內(nèi)存需求。組不變層和模塊可以以端到端的方式使網(wǎng)絡(luò)全局不變。此外,它們可以堆疊到用于各種視覺分割任務(wù)的更深層次的體系結(jié)構(gòu)中,而基于常規(guī)CNN的對等對象的計(jì)算開銷卻可以忽略不計(jì)。

二、GER-Unet網(wǎng)絡(luò)

1、組不變分割框架的核心模塊

所有的網(wǎng)絡(luò)操作都是基于相同對稱組,其由平移,旋轉(zhuǎn)90度和反射組成,因此一共有八個組即4個純旋轉(zhuǎn)和自己相應(yīng)反射。

組輸入層:第一層輸入是原始輸入圖像。將輸入圖像與8個旋轉(zhuǎn)和反射具有相同卷積核進(jìn)行卷積,最開始是一個卷積核參數(shù),通過旋轉(zhuǎn)90度和自己反射生成8個方向卷積核,如下圖所示。

如何理解Tensorflow中的GER-VNet

組隱藏層:輸入是不同方向的特征圖。對輸入每個方向的特征圖與8個旋轉(zhuǎn)和反射對稱組進(jìn)行卷積計(jì)算,如圖所示。

如何理解Tensorflow中的GER-VNet

三、實(shí)驗(yàn)細(xì)節(jié)及結(jié)果

1、訓(xùn)練數(shù)據(jù):131例增強(qiáng)CT數(shù)據(jù)。

2、評價(jià)指標(biāo):為了比較不同分割方法的結(jié)果,采用dice,Hausdorff距離,Jaccard,精度(稱為正預(yù)測值),召回率(稱為靈敏度系數(shù)或真實(shí)陽性率),特異性(稱為真實(shí)陰性率)和F1得分。

3、參數(shù)設(shè)置:訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)比值是4:1。在tesla V100(16g顯存)上訓(xùn)練,batchsize是4,學(xué)習(xí)率是0.0002,訓(xùn)練次數(shù)是300epochs,并采用早停止策略,采用交叉熵函數(shù),采用Adam優(yōu)化器。

4、結(jié)果比較

相比于其它網(wǎng)絡(luò)模型,GERUnet魯棒性更好,各項(xiàng)指標(biāo)都優(yōu)于其它網(wǎng)絡(luò)模型結(jié)果。收斂速度也比其它網(wǎng)絡(luò)模型速度快。

看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進(jìn)一步的了解或閱讀更多相關(guān)文章,請關(guān)注億速云行業(yè)資訊頻道,感謝您對億速云的支持。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI