半监督学习之DTC

不同于MixMatch这类使用“数据增强后的结果一致性(consistency)”,改方法使用“任务一致性”来约束模型(正则化)。由于第一类方法的无监督信号的构建需要模型的预测流程,即每一步由“训练+预测”构成,所以相对的带来了训练时间的大大增加(在Keras框架里面可以通过构建类似GAN一样的结构,即将一个模型complie两次,但是预测的哪个模型的所有参数的设置为不可训练)。而DTC(开创性的工作)提出一种新思路——“任务一致性正则”,通过将分割分为pixel-wise分类任务和level-set(水平集)函数回归任务(标签是通过一个符号函数转换后的图片)。在这里水平集函数回归思想比较妙,利用了神经网络的本质是一个“万能的函数逼近器”的概念。

HiLab-git/DTC

skimage level set

Module: segmentation - skimage v0.19.0.dev0 docs
笔记:
Notion

基于双任务一致性的半监督医学图像分割

不同于使用通过扰动数据和网络来规范(regularize)模型训练,使用任务正则化。

一个是水平集的分割图和直接的分割

半监督学习框架通过直接从有限数量的标记数据和大量的未标记数据中学习,获得高质量的分割结果。

现有方法都是通过损失中的正则化项来加强未标记数据预测的一致性。

pixel-wise 和shape-aware多任务

不同任务的结果应该映射、转换到同一个预定义的空间

建立水平集的回归任务和像素点的分类任务的一致性。

分为3部分:

1.第一部分是双任务分割网络:

将分割任务建模为两个问题:1.预测一个像素分类图;2.获得一个全局级水平集函数,其中零级是分割轮廓

2.第二部分是将水平集函数转换为一个分割的概率图

3.第三部分混合监督和无监督的损失函数。这个可以加速全监督的学习也可以有效地利用未标签的数据。

结果:

1.在完全监督的设置下,我们的双任务一致性正则化优于双任务的单独和联合监督。

2.在半监督设置下,所提出的框架在几个临床数据集上优于最先进的半监督医学图像分割框架。

3.与现有的方法相比,该框架需要较少的训练时间和计算成本。同时,它直接适用于任何半建议的医学图像分割场景,由于任务之间存在可微的变换,可以很容易地扩展到使用附加任务。

The consistency regularization plays a vital role in computer vision and image processing, especially in semi-supervised learning.

stochasitc transformations and perturbations 随机变换和扰动

不同于图像变换的结果一致性,一次训练需要前向两次,任务一致性只需要一次。

双任务一致性网络结构

下面是像素分类任务的head,什么上面是水平集回归任务的head。使用encoder-decoder作为backbone。模型在标注的数据上使用最小化监督损失LDice,LLSFL_{Dice},L_{LSF}LDice​,LLSF​,在标注数据和非标注使用双任务一致性损失LDTCL_{DTC}LDTC​。函数TTT在监督学习中将GT标签转换为水平集表示,函数T−1T^{-1}T−1将水平集函数变为概率图来计算LDTCL_{DTC}LDTC​

方法

原论文使用3D图片作为输入

为了建立一致性,使用一个transform layer来将水平集函数转化为一个像素级别的概率图,通过实现smooth后的阶跃函数。

Heaviside函数,即阶跃函数

双任务一致性:通常来说,一致性损失鼓励在数据集层面的预测(比如,同一个数据的不同变换的预测应该相同),不同于数据集的一致性,使用任务一致性。水平集函数是一个捕获活动轮廓和距离信息的传统方法。定义如下:

x,yx,yx,y是两个在分割mask中的不同的像素和体素,∂S\partial S∂S是zero水平集同时表示目标的轮廓。SinSoutS_{in} \ S_{out}Sin​ Sout​目标对象是内部区域和外部区域。

通过公式T(x)T(x)T(x)作为任务转换函数,将分割图变为水平集图。如何将水平集图变为分割图,很容易想到啊使用逆,但是T−1T^{-1}T−1不可微。使用一个平滑逼近来实现逆。

k,zk,zk,z是乘系数和像素/体素。这个非常像sigmoid函数可以作为激活函数。

我们将dual-task-consistency loss定义为LDTC\mathcal L_{DTC}LDTC​来强化task1和task2的一致性

Dual Task Consistency SSL:令 Dl,DuD_l,D_uDl​,Du​分别为labeled和unlabelled数据。DDD作为整个提供的数据集。Seg任务使用Dice loss。

水平集函数损失

最终的损失

LSeg,LLSF\mathcal{L_{Seg},L_{LSF}}LSeg​,LLSF​是全监督学习用到的损失,LDTC\mathcal{L_{DTC}}LDTC​是无标签数据使用的损失。

λd\lambda_dλd​的设置使用Guass warm up 函数

λd(t)=e−5(1−ttmax)2\lambda _d(t)=e^{-5(1-\frac{t}{t_{max}})^2}λd​(t)=e−5(1−tmax​t​)2

t,tmaxt,t_{max}t,tmax​是当前步和最大训练步,图像如下

算法

源码阅读

Q1:这个函数这么实现的?

A:使用有符号的距离场,in和out使用tanh函数

HiLab-git/DTC

def compute_sdf(img_gt, out_shape):"""compute the signed distance map of binary maskinput: segmentation, shape = (batch_size, x, y, z)output: the Signed Distance Map (SDM)sdf(x) = 0; x in segmentation boundary-inf|x-y|; x in segmentation+inf|x-y|; x out of segmentationnormalize sdf to [-1,1]"""img_gt = img_gt.astype(np.uint8)normalized_sdf = np.zeros(out_shape)for b in range(out_shape[0]): # batch sizeposmask = img_gt[b].astype(np.bool)if posmask.any():negmask = ~posmaskposdis = distance(posmask)negdis = distance(negmask)boundary = skimage_seg.find_boundaries(posmask, mode='inner').astype(np.uint8)sdf = (negdis-np.min(negdis))/(np.max(negdis)-np.min(negdis)) - (posdis-np.min(posdis))/(np.max(posdis)-np.min(posdis))sdf[boundary==1] = 0normalized_sdf[b] = sdf# assert np.min(sdf) == -1.0, print(np.min(posdis), np.max(posdis), np.min(negdis), np.max(negdis))# assert np.max(sdf) ==  1.0, print(np.min(posdis), np.min(negdis), np.max(posdis), np.max(negdis))return normalized_sdf

函数数据出来的是距离图

然后计算MSE损失

with torch.no_grad():gt_dis = compute_sdf(label_batch[:].cpu().numpy(), outputs[:labeled_bs, 0, ...].shape)gt_dis = torch.from_numpy(gt_dis).float().cuda()loss_sdf = mse_loss(outputs_tanh[:labeled_bs, 0, ...], gt_dis)

Q2:为什么可以看作回归任务

按照这张图理解,sdf函数生成距离的就是这个图。模型作为一个万能的函数逼近器,去拟合一个水平集函数,所以可以当作回归任务。

Q3.逆转化怎么实现

如论文所说,sigmoid函数实现

outputs_soft = torch.sigmoid(outputs)
...
loss_seg_dice = losses.dice_loss(outputs_soft[:labeled_bs, 0, :, :, :], label_batch[:labeled_bs] == 1)
dis_to_mask = torch.sigmoid(-1500*outputs_tanh)consistency_loss = torch.mean((dis_to_mask - outputs_soft) ** 2)

实验

实验细节

train with 20% labeled and 80% unlabeled data

normalize: zero mean and unit variance (去均值,归一化 )

VNet→ for 3D seg

SGD optimizer,6000 iter,lr=0.01,decay 0.1 every 2500 iter,batch size=4, 2 label imgs and 2 unlabeled imgs(大图)

on-the-fly data aug,训练时数据增强

数据增强方式:random flipping,rotatiing with 90,180,270

水平集数据在训练之前已经的变换好了,因为水平集函数是变换不变的

评估指标:Dice Jaccard ASD(average surface distance), 95HD(95% Hausdorff Distance)

不同unlabeled data比例下,三种方法的Dice

实际实验的结果和论文的结果差不了太多,但是需要进行染色归一化。

半监督学习之DTC(Semi-supervised Medical Image Segmentation through Dual-task Consistency)相关推荐

  1. [半监督学习] Adversarial Dropout for Supervised and Semi-Supervised Learning

    引入了对抗性 dropout(AdD), 可最大限度地提高具有 dropouts 的网络输出之间的差异. 识别出的对抗性 dropout 用于在训练过程中自动重新配置神经网络, 是 Virtual A ...

  2. 用于三维医学图像检测的半监督学习——FocalMix: Semi-Supervised Learning for 3D Medical Image Detection

    本文记录下阅读 CVPR2020论文 其中的<FocalMix: Semi-Supervised Learning for 3D Medical Image Detection>,更新于2 ...

  3. [半监督学习] Virtual Adversarial Training: A Regularization Method for Supervised and SSL

    提出一种基于虚拟对抗损失的新正则化方法, 虚拟对抗性损失被定义为每个输入数据点周围的条件标签分布对局部扰动的鲁棒性. 与对抗训练不同, VAT 方法在没有标签信息的情况下定义了对抗方向, 因此适用于半 ...

  4. 机器学习概念 — 监督学习、无监督学习、半监督学习、强化学习、欠拟合、过拟合、后向传播、损失和优化函数、计算图、正向传播、反向传播

    1. 监督学习和无监督学习 监督学习 ( Supervised Learning ) 和无监督学习 ( Unsupervised Learning ) 是在机器学习中经常被提及的两个重要的学习方法. ...

  5. 低耗时、高精度,微软提基于半监督学习的神经网络结构搜索算法

    作者 | 罗人千.谭旭.王蕊.秦涛.陈恩红.刘铁岩 来源 | 微软研究院AI头条(ID:MSRAsia) 编者按:近年来,神经网络结构搜索(Neural Architecture Search, NA ...

  6. 手把手教你实现GAN半监督学习

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 引言  本文主要介绍如何在tensorflow上仅使用200个带标 ...

  7. 该如何对「半监督学习算法」实际性应用进行评估?Google给出了新答案

    原文来源:arXiv 作者:Avital Oliver.Augustus Odena.Colin Raffel.Ekin D. Cubuk.Ian J. Goodfellow 「雷克世界」编译:KAB ...

  8. 机器学习中的有监督学习,无监督学习,半监督学习

    在机器学习(Machine learning)领域,主要有三类不同的学习方法: 监督学习(Supervised learning). 非监督学习(Unsupervised learning). 半监督 ...

  9. 长文总结半监督学习(Semi-Supervised Learning)

    ©PaperWeekly 原创 · 作者|燕皖 单位|渊亭科技 研究方向|计算机视觉.CNN 在现实生活中,无标签的数据易于获取,而有标签的数据收集起来通常很困难,标注也耗时和耗力.在这种情况下,半监 ...

最新文章

  1. C# 浅拷贝与深拷贝区别 解惑篇
  2. ESXi主机遗忘密码重置密码
  3. ThinkCMF 5.1.0 发布:支持 swoole、协议变更为 MIT
  4. 深度学习(数据集划分偏差方差)
  5. 默认优先级值是多少 ospf_OSPF是什么?网工必备技能——OSPF详解
  6. python 彩票分析_294期钱哥福彩3D预测奖号:杀号分析
  7. Linux配置http代理
  8. InfoWorld 公布开源软件( 2019 年)
  9. 视频教程-CCNA自学视频课程专题四:CCNA认证重点难点解析3(扩展篇)-思科认证
  10. 如何用SOLIDWORKS实现文字雕刻?来试试这样做!
  11. Django前后端分离概念解析
  12. ChatGPT Network Error 在使用chatGPT的过程中回答到一半显示网络错误
  13. webstrom免安装版
  14. Minecraft 1.18.1、1.18.2模组开发 02.方块和物品
  15. kotlin Anko的实际用法
  16. 移植ucos-III到stm32f103c8t6
  17. matlab中如何转动三维图_matlab如何画三维图
  18. matlab单个像素面积,我用MATLAB计算出了图像目标区域的像素点个数,请问知道了目标区域的像素点怎么计算目标区域的面积?...
  19. pandas 利用 正则表达式 从文本中提取数字
  20. vue 给取data值_vue获取data值的方式分析

热门文章

  1. 选择困难症:纠结的时候参考
  2. 周星驰电影全集+BT种子下载+高清版MKV+周星驰系列电影合集
  3. 唤醒手腕51单片机学习笔记(第1期)基本知识、LED和轻触按键
  4. 数理逻辑——PC部分
  5. 读书:《四点起床-最养生和高效的时间管理》
  6. 产品经理分析模型大全
  7. 中医的肝指的是哪里?
  8. 世界最铁的两个国家,分裂后关系亲如一家
  9. iMazing 一款替代iTunes的数据备份软件
  10. 【movsb cmpsb cld std】