您好,登錄后才能下訂單哦!
如何理解Tensorflow中的GER-VNet,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
一、常規卷積網絡的局限性
1、常規的卷積神經網絡只能利用變化的平移,而忽略醫學圖像中存在的其它固有對稱性,例如旋轉和反射。為了緩解這一缺點,本文提出新穎的組不變性分割框架,其通過編碼那些固有的對稱性來學習更精確的表達。首先,在每個方向上都設計了基于核的不變運算,可以有效地解決現有方法中學習對稱性的問題。然后,為使分割網絡保持全局等價,設計了具有分層對稱約束的獨特組層。通過利用更多的對稱性,新穎的分割CNN可以比常規CNN大大降低樣本復雜度和過濾器的冗余(大約2/3)。
2、為了讓常規CNN擁有更多的對稱屬性,常見有三個策略方法。第一個是數據增強,是常見的有效方法,雖然數據增強可以讓CNN學習到不同變換特征,但是學習到的CNN特征參數大小會變大從而導致特征參數過度冗余,過擬合風險也越高。此外,這類軟約束不能保證訓練好的CNN模型在測試數據或訓練數據上具有不變性。第二個是在現有旋轉不變網絡中可以在每一層維持多個旋轉特征圖,并且易于實現。但是在每一層旋轉和重復原始特征輸出,大大增加了存儲需求。第三個是通過作用于濾波器的旋轉等變性的方式,這已經成為一個有希望的方向。盡管旋轉的卷積核可以在每個卷積層的不同方向上實現局部對稱,但是這些解決方案通過會限制了網絡的深度和全局旋轉不變性,這是由于維數爆炸和方向池化操作產生了加劇噪聲所致。
3、論文靈感來自于圖像常規分類中的組不變CNN。通過將平移,旋轉和反射結合在一起來建立對稱組,以顯著提高每個內核的利用率并減少過濾器的數量。設計了強大的分層約束以確保每個網絡的均等性并具有嚴格的數學證明。在過濾器而不是特征圖上執行等變變換,以減少內存需求。組不變層和模塊可以以端到端的方式使網絡全局不變。此外,它們可以堆疊到用于各種視覺分割任務的更深層次的體系結構中,而基于常規CNN的對等對象的計算開銷卻可以忽略不計。
二、GER-Unet網絡
1、組不變分割框架的核心模塊
所有的網絡操作都是基于相同對稱組,其由平移,旋轉90度和反射組成,因此一共有八個組即4個純旋轉和自己相應反射。
組輸入層:第一層輸入是原始輸入圖像。將輸入圖像與8個旋轉和反射具有相同卷積核進行卷積,最開始是一個卷積核參數,通過旋轉90度和自己反射生成8個方向卷積核,如下圖所示。
組隱藏層:輸入是不同方向的特征圖。對輸入每個方向的特征圖與8個旋轉和反射對稱組進行卷積計算,如圖所示。
三、實驗細節及結果
1、訓練數據:131例增強CT數據。
2、評價指標:為了比較不同分割方法的結果,采用dice,Hausdorff距離,Jaccard,精度(稱為正預測值),召回率(稱為靈敏度系數或真實陽性率),特異性(稱為真實陰性率)和F1得分。
3、參數設置:訓練數據與測試數據比值是4:1。在tesla V100(16g顯存)上訓練,batchsize是4,學習率是0.0002,訓練次數是300epochs,并采用早停止策略,采用交叉熵函數,采用Adam優化器。
4、結果比較
相比于其它網絡模型,GERUnet魯棒性更好,各項指標都優于其它網絡模型結果。收斂速度也比其它網絡模型速度快。
看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。