溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Tensorflow中ANU-Net如何使用

發(fā)布時間:2021-08-03 14:14:01 來源:億速云 閱讀:137 作者:Leah 欄目:大數(shù)據(jù)

這篇文章給大家介紹Tensorflow中ANU-Net如何使用,內(nèi)容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。


1、ANU-Net網(wǎng)絡(luò)優(yōu)點

一般醫(yī)學(xué)影像分割研究分為兩類:(1)、人工和半自動分割,(2)、全自動分割。雖然有大量的FCN和Unet的改進模型被提出,但是這些方法大都是將分割任務(wù)分成兩部分:定位和分割。額外的定位步驟增加了模型的參數(shù)也帶來額外的計算時間。此外模型分割精度嚴重依賴第一步定位的精度。
為了解決更精確地分割結(jié)果需求,文章作者提出了ANUNet網(wǎng)絡(luò),基于嵌套的Unet結(jié)構(gòu)和注意力機制。  論文主要貢獻有(1)、ANUNet用來醫(yī)學(xué)圖像分割,(2)、在公開數(shù)據(jù)實驗表示注意力機制可以聚焦在整個圖像上的目標器官而抑制不相關(guān)組織。  (3)、ANUNet能夠增加目標區(qū)域的權(quán)重,同時抑制與分割任務(wù)無關(guān)的背景區(qū)域。  (4)、ANUNet重新設(shè)計了嵌套的UNet結(jié)構(gòu),集成了不同級別的特征,與其他基于UNet的模型相比,在各種醫(yī)學(xué)圖像分割任務(wù)上都帶來了更高的性能。  (5)、由于引入了深度監(jiān)督機制,ANUNet具有靈活的網(wǎng)絡(luò)結(jié)構(gòu),可以在測試期間執(zhí)行修剪操作。  因此,可以大大減少修剪后的ANUNet中的大量參數(shù),并以降低少許性能為代價來加速模型。

2、ANU-Net結(jié)構(gòu)

2.1、嵌套UNet模型  
嵌套UNet結(jié)構(gòu)與Unet的區(qū)別在于重新設(shè)計了不同深度的密跳躍連接,并采用了嵌套卷積模塊。每個嵌套卷積模塊通過幾個卷積層來提取語義信息,每個卷積層是通過密跳躍連接來連接的,拼接層可以融合不同級別的語義信息。
嵌套結(jié)構(gòu)具有以下優(yōu)勢
(1)、嵌套結(jié)構(gòu)可以自己學(xué)習(xí)到不同深度的重要特征,因此避免復(fù)雜地選擇深層和淺層特征。
(2)、嵌套結(jié)構(gòu)共享一個特征提取器,因此不需要訓(xùn)練一系列的Unet,只有一個編碼器。
(3)、嵌套結(jié)構(gòu)中,不同級別的特征通過不同的獨立的解碼器來恢復(fù),因此可以從不同級別獲得分層的解碼模板。
2.2、注意力機制  
在嵌套Unet結(jié)構(gòu)中增加注意力門控,結(jié)構(gòu)如下圖所示。
Tensorflow中ANU-Net如何使用
注意力門控有兩個輸入:編碼器中的上采樣特征g和解碼器中相對應(yīng)的深度特征f。g是門控信號用來增強f中學(xué)到的特征。換言之,這個門控信號可以從編碼特征中選擇更有用的特征,然后在傳送到上一級編碼器中取。兩個輸入經(jīng)過卷積層和BN層后在逐元素相加,在經(jīng)過relu函數(shù),再經(jīng)過卷積層和BN層,再通過sigmod函數(shù)產(chǎn)生注意力系數(shù),最后將獲得系數(shù)與編碼器特征元素相乘得到最后出輸出。注意門控具有良好的選擇功能,在抑制與任務(wù)無關(guān)的區(qū)域的同時,可以增強與分割任務(wù)相關(guān)的目標區(qū)域的學(xué)習(xí)。因此,我們的工作將“注意門”整合到了提出的網(wǎng)絡(luò)中以提高并通過跳過連接來有效地傳播語義信息。
2.3、注意力嵌套UNet——ANUNet  
集成注意力機制和嵌套UNet結(jié)構(gòu)的網(wǎng)絡(luò)即ANUNet。ANUNet采用嵌套UNet作為基本網(wǎng)絡(luò)框架,編碼器和解碼器對稱地排列在網(wǎng)絡(luò)的兩側(cè)。編碼器提取的上下文信息通過密集的跳過連接傳播到相應(yīng)層的解碼器,從而可以提取更有效的分層特征。

Tensorflow中ANU-Net如何使用

對于密集跳過連接,解碼器中每個卷積塊的輸入均包含兩個等尺度的特征圖:(1)中間特征圖來自沿相同深度的跳過連接的前面注意門的輸出;(2)最終特征圖來自更深模塊的反卷積運算的輸出。在接收并拼接了所有特征圖之后,解碼器以自下而上的方式還原特征。所有先前特征圖累積并到達當(dāng)前塊的原因是,密集跳過連接可以充分利用該層中先前嵌套卷積塊中的這些特征圖。如下圖所示,例如X(0,4)是由上采樣X(1,3)和之前所有的注意力輸出拼接構(gòu)成,其它以此類推。

Tensorflow中ANU-Net如何使用

ANUNet的兩個主要創(chuàng)新是:網(wǎng)絡(luò)通過密集跳過連接從編碼器到解碼器提取特征,用于集成層次表示。此外,在嵌套卷積塊之間添加了注意門,以便可以將不同層提取的特征在解碼器路徑中選擇性合并。因此,ANUNet的準確性是提升了的。
2.4、深監(jiān)督機制  
深度監(jiān)督可以緩解梯度消失的問題,加快收斂速度。此外,深度監(jiān)督還可以協(xié)助損失函數(shù)發(fā)揮正規(guī)化的作用。為了引入深度監(jiān)督,ANUNet在第一層的每個輸出塊(X0_1,X0_2,X0_3,X0_4)之后增加了1x1卷積層和sigmod激活函數(shù)。此外,ANUNet將這些層直接連接到最終輸出,以計算損失和反向傳播。

Tensorflow中ANU-Net如何使用

2.5、損失函數(shù)  
由于嵌套卷積塊之間設(shè)計了密集的跳過連接,因此ANUNet從塊中獲取了不同語義級別的全分辨率特征圖。為了充分利用這些語義信息,重新設(shè)計了結(jié)合dice系數(shù)損失(DICE),focal損失(FOCAL)和二進制交叉熵損失(BCE)的混合損失函數(shù)。
2.6、模型裁切  
如下圖所示ANUNet有L1,L2,L3,L4四個不同深度的裁切網(wǎng)絡(luò),灰色區(qū)域意味著這些模塊和注意門控在預(yù)測的時候被移除了。

Tensorflow中ANU-Net如何使用

3、實驗設(shè)置與結(jié)果對比

3.1、數(shù)據(jù)設(shè)置與預(yù)處理  
使用了LiTS和CHAOS數(shù)據(jù)集,將所有標注數(shù)據(jù)按照五比一分成訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù),并將所有數(shù)據(jù)按照HU值單位范圍(-200,200)進行截斷,去除不相關(guān)的無用細節(jié)。
3.2、評價指標  
Dice相似系統(tǒng),IOU值,精度和召回率來評估分割結(jié)果的性能。
3.3、分割結(jié)果  
ANUNet與UNet,R2UNet,UNet++,AttentionUNet和AttentionR2UNet進行比較。

Tensorflow中ANU-Net如何使用

Tensorflow中ANU-Net如何使用

關(guān)于Tensorflow中ANU-Net如何使用就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI