精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

UNet和UNet++:醫(yī)學影像經(jīng)典分割網(wǎng)絡對比

OpenCV學堂 ? 來源:AI公園 ? 作者:AI公園 ? 2022-04-25 10:38 ? 次閱讀

導讀

在不同的任務上對比了UNet和UNet++以及使用不同的預訓練編碼器的效果。

介紹

語義分割是計算機視覺的一個問題,我們的任務是使用圖像作為輸入,為圖像中的每個像素分配一個類。在語義分割的情況下,我們不關(guān)心是否有同一個類的多個實例(對象),我們只是用它們的類別來標記它們。有多種關(guān)于不同計算機視覺問題的介紹課程,但用一張圖片可以總結(jié)不同的計算機視覺問題:

5891bd82-c3e2-11ec-bce3-dac502259ad0.png

語義分割在生物醫(yī)學圖像分析中有著廣泛的應用:x射線、MRI掃描、數(shù)字病理、顯微鏡、內(nèi)窺鏡等。https://grand-challenge.org/challenges上有許多不同的有趣和重要的問題有待探索。

從技術(shù)角度來看,如果我們考慮語義分割問題,對于N×M×3(假設(shè)我們有一個RGB圖像)的圖像,我們希望生成對應的映射N×M×k(其中k是類的數(shù)量)。有很多架構(gòu)可以解決這個問題,但在這里我想談談兩個特定的架構(gòu),Unet和Unet++。

有許多關(guān)于Unet的評論,它如何永遠地改變了這個領(lǐng)域。它是一個統(tǒng)一的非常清晰的架構(gòu),由一個編碼器和一個解碼器組成,前者生成圖像的表示,后者使用該表示來構(gòu)建分割。每個空間分辨率的兩個映射連接在一起(灰色箭頭),因此可以將圖像的兩種不同表示組合在一起。并且它成功了!

58bd8a7a-c3e2-11ec-bce3-dac502259ad0.png

接下來是使用一個訓練好的編碼器。考慮圖像分類的問題,我們試圖建立一個圖像的特征表示,這樣不同的類在該特征空間可以被分開。我們可以(幾乎)使用任何CNN,并將其作為一個編碼器,從編碼器中獲取特征,并將其提供給我們的解碼器。據(jù)我所知,Iglovikov & Shvets 使用了VGG11和resnet34分別為Unet解碼器以生成更好的特征和提高其性能。

58dcf5cc-c3e2-11ec-bce3-dac502259ad0.png

TernausNet (VGG11 Unet)

Unet++是最近對Unet體系結(jié)構(gòu)的改進,它有多個跳躍連接。

58f2818a-c3e2-11ec-bce3-dac502259ad0.png

根據(jù)論文, Unet++的表現(xiàn)似乎優(yōu)于原來的Unet。就像在Unet中一樣,這里可以使用多個編碼器(骨干)來為輸入圖像生成強特征。

我應該使用哪個編碼器?

這里我想重點介紹Unet和Unet++,并比較它們使用不同的預訓練編碼器的性能。為此,我選擇使用胸部x光數(shù)據(jù)集來分割肺部。這是一個二值分割,所以我們應該給每個像素分配一個類為“1”的概率,然后我們可以二值化來制作一個掩碼。首先,讓我們看看數(shù)據(jù)。

5913b238-c3e2-11ec-bce3-dac502259ad0.png

來自胸片X光數(shù)據(jù)集的標注數(shù)據(jù)的例子

這些是非常大的圖像,通常是2000×2000像素,有很大的mask,從視覺上看,找到肺不是問題。使用segmentation_models_pytorch庫,我們?yōu)閁net和Unet++使用100+個不同的預訓練編碼器。我們做了一個快速的pipeline來訓練模型,使用Catalyst (pytorch的另一個庫,這可以幫助你訓練模型,而不必編寫很多無聊的代碼)和Albumentations(幫助你應用不同的圖像轉(zhuǎn)換)。

  1. 定義數(shù)據(jù)集和增強。我們將調(diào)整圖像大小為256×256,并對訓練數(shù)據(jù)集應用一些大的增強。
importalbumentationsasA
fromtorch.utils.dataimportDataset,DataLoader
fromcollectionsimportOrderedDict

classChestXRayDataset(Dataset):
def__init__(
self,
images,
masks,
transforms):
self.images=images
self.masks=masks
self.transforms=transforms

def__len__(self):
return(len(self.images))

def__getitem__(self,idx):
"""Willloadthemask,getrandomcoordinatesaround/withthemask,
loadtheimagebycoordinates
"""
sample_image=imread(self.images[idx])
iflen(sample_image.shape)==3:
sample_image=sample_image[...,0]
sample_image=np.expand_dims(sample_image,2)/255
sample_mask=imread(self.masks[idx])/255
iflen(sample_mask.shape)==3:
sample_mask=sample_mask[...,0]
augmented=self.transforms(image=sample_image,mask=sample_mask)
sample_image=augmented['image']
sample_mask=augmented['mask']
sample_image=sample_image.transpose(2,0,1)#channelsfirst
sample_mask=np.expand_dims(sample_mask,0)
data={'features':torch.from_numpy(sample_image.copy()).float(),
'mask':torch.from_numpy(sample_mask.copy()).float()}
return(data)

defget_valid_transforms(crop_size=256):
returnA.Compose(
[
A.Resize(crop_size,crop_size),
],
p=1.0)

deflight_training_transforms(crop_size=256):
returnA.Compose([
A.RandomResizedCrop(height=crop_size,width=crop_size),
A.OneOf(
[
A.Transpose(),
A.VerticalFlip(),
A.HorizontalFlip(),
A.RandomRotate90(),
A.NoOp()
],p=1.0),
])

defmedium_training_transforms(crop_size=256):
returnA.Compose([
A.RandomResizedCrop(height=crop_size,width=crop_size),
A.OneOf(
[
A.Transpose(),
A.VerticalFlip(),
A.HorizontalFlip(),
A.RandomRotate90(),
A.NoOp()
],p=1.0),
A.OneOf(
[
A.CoarseDropout(max_holes=16,max_height=16,max_width=16),
A.NoOp()
],p=1.0),
])


defheavy_training_transforms(crop_size=256):
returnA.Compose([
A.RandomResizedCrop(height=crop_size,width=crop_size),
A.OneOf(
[
A.Transpose(),
A.VerticalFlip(),
A.HorizontalFlip(),
A.RandomRotate90(),
A.NoOp()
],p=1.0),
A.ShiftScaleRotate(p=0.75),
A.OneOf(
[
A.CoarseDropout(max_holes=16,max_height=16,max_width=16),
A.NoOp()
],p=1.0),
])

defget_training_trasnforms(transforms_type):
iftransforms_type=='light':
return(light_training_transforms())
eliftransforms_type=='medium':
return(medium_training_transforms())
eliftransforms_type=='heavy':
return(heavy_training_transforms())
else:
raiseNotImplementedError("Notimplementedtransformationconfiguration")
  1. 定義模型和損失函數(shù)。這里我們使用帶有regnety_004編碼器的Unet++,并使用RAdam + Lookahed優(yōu)化器使用DICE + BCE損失之和進行訓練。
importtorch
importsegmentation_models_pytorchassmp
importnumpyasnp
importmatplotlib.pyplotasplt
fromcatalystimportdl,metrics,core,contrib,utils
importtorch.nnasnn
fromskimage.ioimportimread
importos
fromsklearn.model_selectionimporttrain_test_split
fromcatalyst.dlimportCriterionCallback,MetricAggregationCallback
encoder='timm-regnety_004'
model=smp.UnetPlusPlus(encoder,classes=1,in_channels=1)
#model.cuda()
learning_rate=5e-3
encoder_learning_rate=5e-3/10
layerwise_params={"encoder*":dict(lr=encoder_learning_rate,weight_decay=0.00003)}
model_params=utils.process_model_params(model,layerwise_params=layerwise_params)
base_optimizer=contrib.nn.RAdam(model_params,lr=learning_rate,weight_decay=0.0003)
optimizer=contrib.nn.Lookahead(base_optimizer)
scheduler=torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer,factor=0.25,patience=10)
criterion={
"dice":DiceLoss(mode='binary'),
"bce":nn.BCEWithLogitsLoss()
}
  1. 定義回調(diào)函數(shù)并訓練!
callbacks=[
#Eachcriterioniscalculatedseparately.
CriterionCallback(
input_key="mask",
prefix="loss_dice",
criterion_key="dice"
),
CriterionCallback(
input_key="mask",
prefix="loss_bce",
criterion_key="bce"
),

#Andonlythenweaggregateeverythingintooneloss.
MetricAggregationCallback(
prefix="loss",
mode="weighted_sum",
metrics={
"loss_dice":1.0,
"loss_bce":0.8
},
),

#metrics
IoUMetricsCallback(
mode='binary',
input_key='mask',
)

]

runner=dl.SupervisedRunner(input_key="features",input_target_key="mask")
runner.train(
model=model,
criterion=criterion,
optimizer=optimizer,
scheduler=scheduler,
loaders=loaders,
callbacks=callbacks,
logdir='../logs/xray_test_log',
num_epochs=100,
main_metric="loss",
minimize_metric=True,
verbose=True,
)

如果我們用不同的編碼器對Unet和Unet++進行驗證,我們可以看到每個訓練模型的驗證質(zhì)量,并總結(jié)如下:

59583070-c3e2-11ec-bce3-dac502259ad0.png

Unet和Unet++驗證集分數(shù)

我們注意到的第一件事是,在所有編碼器中,Unet++的性能似乎都比Unet好。當然,有時這種差異并不是很大,我們不能說它們在統(tǒng)計上是否完全不同 —— 我們需要在多個folds上訓練,看看分數(shù)分布,單點不能證明任何事情。第二,resnest200e顯示了最高的質(zhì)量,同時仍然有合理的參數(shù)數(shù)量。有趣的是,如果我們看看https://paperswithcode.com/task/semantic-segmentation,我們會發(fā)現(xiàn)resnest200在一些基準測試中也是SOTA。

好的,但是讓我們用Unet++和Unet使用resnest200e編碼器來比較不同的預測。

597a5e7a-c3e2-11ec-bce3-dac502259ad0.png

Unet和Unet++使用resnest200e編碼器的預測。左圖顯示了兩種模型的預測差異

在某些個別情況下,Unet++實際上比Unet更糟糕。但總的來說似乎更好一些。

一般來說,對于分割網(wǎng)絡來說,這個數(shù)據(jù)集看起來是一個容易的任務。讓我們在一個更難的任務上測試Unet++。為此,我使用PanNuke數(shù)據(jù)集,這是一個帶標注的組織學數(shù)據(jù)集(205,343個標記核,19種不同的組織類型,5個核類)。數(shù)據(jù)已經(jīng)被分割成3個folds。

59e83314-c3e2-11ec-bce3-dac502259ad0.png

PanNuke樣本的例子

我們可以使用類似的代碼在這個數(shù)據(jù)集上訓練Unet++模型,如下所示:

5a230200-c3e2-11ec-bce3-dac502259ad0.png

驗證集上的Unet++得分

我們在這里看到了相同的模式 - resnest200e編碼器似乎比其他的性能更好。我們可以用兩個不同的模型(最好的是resnest200e編碼器,最差的是regnety_002)來可視化一些例子。

5a37ee2c-c3e2-11ec-bce3-dac502259ad0.png

resnest200e和regnety_002的預測

我們可以肯定地說,這個數(shù)據(jù)集是一項更難的任務 —— 不僅mask不夠精確,而且個別的核被分配到錯誤的類別。然而,使用resnest200e編碼器的Unet++仍然表現(xiàn)很好。

總結(jié)

這不是一個全面語義分割的指導,這更多的是一個想法,使用什么來獲得一個堅實的基線。有很多模型、FPN,DeepLabV3, Linknet與Unet有很大的不同,有許多Unet-like架構(gòu),例如,使用雙編碼器的Unet,MAnet,PraNet,U2-net — 有很多的型號供你選擇,其中一些可能在你的任務上表現(xiàn)的比較好,但是,一個堅實的基線可以幫助你從正確的方向上開始。

審核編輯 :李倩
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3592

    瀏覽量

    134145
  • 醫(yī)學影像
    +關(guān)注

    關(guān)注

    1

    文章

    109

    瀏覽量

    17353

原文標題:UNet 和 UNet++:醫(yī)學影像經(jīng)典分割網(wǎng)絡對比

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Dell PowerScale數(shù)據(jù)湖助力醫(yī)研一體化建設(shè)

    近年來,醫(yī)療影像設(shè)備不斷向更高水平和精密化發(fā)展,推動醫(yī)療服務向更高更快的品質(zhì)發(fā)展。基于醫(yī)學影像多學科會診的協(xié)作、智能輔助診斷、智能質(zhì)控、智能術(shù)前規(guī)劃,將快速推進各項醫(yī)學科研成果進行規(guī)范化的臨床應用與轉(zhuǎn)化。
    的頭像 發(fā)表于 10-16 10:13 ?278次閱讀

    UNet模型屬于哪種神經(jīng)網(wǎng)絡

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國弗萊堡大學計算機科學系的研究人員在2015年提出,專為生物醫(yī)學圖像
    的頭像 發(fā)表于 07-24 10:59 ?2177次閱讀

    醫(yī)學影像存儲與傳輸系統(tǒng)源碼,PACS系統(tǒng)源碼

    ?醫(yī)學影像存儲與傳輸系統(tǒng)中,PACS部分主要提供醫(yī)學影像獲取、影像信息網(wǎng)絡傳遞、大容量數(shù)據(jù)存儲、影像顯示和處理、
    的頭像 發(fā)表于 07-18 16:31 ?311次閱讀
    <b class='flag-5'>醫(yī)學影像</b>存儲與傳輸系統(tǒng)源碼,PACS系統(tǒng)源碼

    圖像語義分割的實用性是什么

    圖像語義分割是一種重要的計算機視覺任務,它旨在將圖像中的每個像素分配到相應的語義類別中。這項技術(shù)在許多領(lǐng)域都有廣泛的應用,如自動駕駛、醫(yī)學圖像分析、機器人導航等。 一、圖像語義分割的基本原理 1.1
    的頭像 發(fā)表于 07-17 09:56 ?354次閱讀

    圖像識別技術(shù)在醫(yī)療領(lǐng)域的應用

    的應用已經(jīng)成為推動醫(yī)療技術(shù)發(fā)展的重要力量。 二、醫(yī)學影像診斷 醫(yī)學影像診斷是圖像識別技術(shù)在醫(yī)療領(lǐng)域應用最為廣泛和成熟的領(lǐng)域之一。醫(yī)學影像診斷主要包括X射線、CT、MRI、超聲等影像技術(shù)
    的頭像 發(fā)表于 07-16 10:48 ?731次閱讀

    經(jīng)典卷積網(wǎng)絡模型介紹

    經(jīng)典卷積網(wǎng)絡模型在深度學習領(lǐng)域,尤其是在計算機視覺任務中,扮演著舉足輕重的角色。這些模型通過不斷演進和創(chuàng)新,推動了圖像處理、目標檢測、圖像生成、語義分割等多個領(lǐng)域的發(fā)展。以下將詳細探討幾個經(jīng)典
    的頭像 發(fā)表于 07-11 11:45 ?461次閱讀

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務,旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(CNN)作為深度學習的一種核心模型,在圖像分割與語義
    的頭像 發(fā)表于 07-09 11:51 ?675次閱讀

    卷積神經(jīng)網(wǎng)絡在圖像和醫(yī)學診斷中的優(yōu)勢

    隨著人工智能技術(shù)的迅猛發(fā)展,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,簡稱CNN)作為一種深度學習的代表算法,在圖像處理和醫(yī)學診斷領(lǐng)域展現(xiàn)出了巨大的潛力和優(yōu)勢。CNN
    的頭像 發(fā)表于 07-01 15:59 ?876次閱讀

    聽醫(yī)信人說 | 為什么醫(yī)院建網(wǎng)選擇極簡以太彩光網(wǎng)絡

    效率、改善患者的就醫(yī)體驗,網(wǎng)絡部署需要更加靈活、高效。傳統(tǒng)的頻繁打孔和布線方式不僅影響醫(yī)療業(yè)務的正常進行,而且使用Hub和簡易交換機可能會給網(wǎng)絡穩(wěn)定性和運維管理帶來額外的挑戰(zhàn)。 醫(yī)學影像的即時讀取 :高清
    的頭像 發(fā)表于 06-20 14:56 ?287次閱讀

    利用NVIDIA的nvJPEG2000庫分析DICOM醫(yī)學影像的解碼功能

    本文將深入分析 DICOM 醫(yī)學影像的解碼功能。AWS HealthImaging 利用 NVIDIA 的 nvJPEG2000 庫來實現(xiàn)此功能。
    的頭像 發(fā)表于 05-28 14:27 ?724次閱讀
    利用NVIDIA的nvJPEG2000庫分析DICOM<b class='flag-5'>醫(yī)學影像</b>的解碼功能

    AI醫(yī)學影像企業(yè)深智透醫(yī)完成B+輪近千萬美元融資

    AI醫(yī)學影像領(lǐng)域的領(lǐng)軍企業(yè)深智透醫(yī)(Subtle Medical Inc.)近日成功完成了B+輪近千萬美元的融資,使其累計融資額超過五千萬美元。此次融資的注入,將為公司全球商業(yè)拓展和產(chǎn)品研發(fā)創(chuàng)新提供強大的資金支持。
    的頭像 發(fā)表于 05-14 10:08 ?447次閱讀

    西門子醫(yī)療與山東第一醫(yī)科大學放射學院達成戰(zhàn)略合作

    校企攜手培育醫(yī)學影像高端人才,虛實融生引領(lǐng)教育培訓嶄新模式 共建全國首個"醫(yī)學影像元宇宙沉浸式教研示范學院" 探索實施"產(chǎn)學研用"四位一體的校企聯(lián)合定向培養(yǎng)計劃 促進各層級醫(yī)研產(chǎn)學人才交叉培養(yǎng)與有機
    的頭像 發(fā)表于 01-30 14:33 ?874次閱讀
    西門子醫(yī)療與山東第一醫(yī)科大學放射學院達成戰(zhàn)略合作

    Harvard FairSeg:第一個用于醫(yī)學分割的公平性數(shù)據(jù)集

    為了解決這些挑戰(zhàn),我們提出了第一個大規(guī)模醫(yī)學分割領(lǐng)域的公平性數(shù)據(jù)集, Harvard-FairSeg。該數(shù)據(jù)集旨在用于研究公平性的cup-disc segmentation,從SLO眼底圖像中診斷青光眼,如圖1所示。
    的頭像 發(fā)表于 01-25 16:52 ?513次閱讀
    Harvard FairSeg:第一個用于<b class='flag-5'>醫(yī)學分割</b>的公平性數(shù)據(jù)集

    基于YOLOv8的自定義醫(yī)學圖像分割

    YOLOv8是一種令人驚嘆的分割模型;它易于訓練、測試和部署。在本教程中,我們將學習如何在自定義數(shù)據(jù)集上使用YOLOv8。但在此之前,我想告訴你為什么在存在其他優(yōu)秀的分割模型時應該使用YOLOv8呢?
    的頭像 發(fā)表于 12-20 10:51 ?733次閱讀
    基于YOLOv8的自定義<b class='flag-5'>醫(yī)學</b>圖像<b class='flag-5'>分割</b>

    輕松實現(xiàn)醫(yī)學影像 AI:NVIDIA 提供 MONAI 托管云服務

    這項創(chuàng)新服務具有用于交互式 AI 標注和訓練的強大 API,可以加速醫(yī)學影像解決方案發(fā)展。 NVIDIA 推出醫(yī)學影像 AI 云服務,通過全托管的云端應用程序編程接口(API),進一步簡化和加速真值
    的頭像 發(fā)表于 11-30 19:35 ?475次閱讀