论文阅读:HAD-Net: A Hierarchical Adversarial Knowledge Distillation Network for Improved Enhanced Tumour
论文获取地址:https://arxiv.org/pdf/2103.16617.pdf
代码开放地址:https://github.com/SaverioVad/HAD_Net
论文摘要:
在许多临床情况下从MRI中分割ETT或者损伤区域对于检测新的疾病活动是重要的。然而,准确的分割需要包括向患者注射造影剂(如钆)后获得的医学图像(如T1增强后MRI),这个过程不再认为是安全的。尽管在过去的几年中已经发展了许多模式不可知的分割网络,但在加强病理分割的背景下,它们的成功有限。在这项工作中,我们提出了HAD-Net,一种新颖的离线对抗知识提炼(KD)技术,即一个预先训练好的教师分割网络,可以访问所有的MRI序列,通过分层对抗性训练,教导学生网络,以更好地克服推理过程中缺乏关键图像时出现的巨大领域转移。特别地,我们将HAD-Net应用到增强肿瘤分割这一具有挑战性的任务中,当无法获得对比度后成像时。在BraTS 2019脑肿瘤分割挑战数据集上对提出的网络进行了训练和测试,在该数据集上,它实现了16% - 26%的性能改进,(a)最近的模态不可知分割方法(U-HeMIS, U-HVED),(b)适于这个问题的KD-Net,(c)预先训练的学生网络(d)在ET的Dice分数方面,网络(AD-Net)的非分层版本。该网络还显示了TC Dice分数的提高。最后,在基于BraTS 2019不确定性挑战指标增强肿瘤分割的不确定性量化方面,该网络优于基线学生网络和AD-Net。
论文概述:
一:解决什么问题?
对脑MRI进行肿瘤分割
二:使用的方法?
- 引入HAD-Net,一种新型的分层对抗性KD网络,在推理过程中,当关键信息(这里是指T1ce)缺失时,一个可以接触到所有图像的预训练教师网络被用来教导学生网络更好地进行分割。
- HAD-Net架构包含三个主要部分:(1)教师网络(2)学生网络(3)分层判别器。教师网络可以访问所有可用的MRI序列作为输入(例如T1ce,T1,T2和FLAIR),而学生网络只可以访问对比度前的MRI序列,Xseg(例如,T1,T2,FLAIR)。HD组件试图通过将学生和教师的分割(Sseg和Tseg)以及他们的多尺度特征图(Slatents和Tlatents)映射到一个共同的空间,来弥补学生和教师之间的领域差距。这是通过将HD的特征与来自学生或教师网络的相应的多尺度特征图相连接来实现的。通过将分层的潜在表征发送到HD,全局和局部信息被提炼出来。此外,在判别器和学生网络之间建立了一个有利于梯度流动的途径。这有助于解决梯度消失的问题,这个问题困扰着许多现代对抗性网络。分层判别器的作用是试图将教师的分割和中间潜在表征从学生的分割中分离开来。这就相当于在对抗式网络中,学生表示生成式,生成虚假数据,老师的分割和潜在表征就像真实数据,分层判别器尝试区区分真实和虚假的数据样本
网络架构描述
这是HD-Net的架构图,如图所示,教师网络和学生网络的架构都采用了No New-Net模型。它们各自由四个尺度的编码器和解码器块组成,中心块位于U-Net的瓶颈处,在最后的解码器块之后有一个输出块。编码器dropout块、解码器块和中心块的内部组件是相同的。除了第一个编码器区块,每个区块都以dropout层开始,其dropout概率为p。接下来是两个CIL层,其中CIL层指的是卷积层、实例规范层和ReLU激活层的级联组合。在每个区块中,卷积层利用3x3x3的内核大小和k∗2n的过滤器,其中n表示该区块所在的规模。三种块类型之间的唯一区别是对它们的输出进行的操作。编码器块的输出通过一个内核大小为2的maxpooling层,然后再转发给下一个编码器块。另一方面,解码器块和中心块的输出通过近邻插值进行上采样,然后再传递给下一个解码器块。最后,上述的输出块由一个单一的卷积层组成,核大小为1x1x1。HD由4个判别器块和一个最终输出层组成。第一个判别器块由卷积层和ReLU激活层组成。接下来的3个判别器块由卷积层、实例归一化层和ReLU激活层组成。在每个判别块中,卷积层利用内核大小为4x4,跨度为2的k∗(2n+1)过滤器。最后,最终的输出层由一个内核大小为4x4,步长为1的卷积层组成。与大多数判别器不同的是,HD不指定一个单一的标签来分类输入分割和分层潜在特征的来源,相反,它输出一个三维patch标签,其大小与输入数据的大小相对。
实验:
数据集:实验的数据集用的是MICCAI BraTS 2019 challengen训练和验证数据集,训练数据集包含335个例子,验证数据集包含125个例子,每个患者有四个有效的MRI序列:T1, T1ce, T2, and FLAIR。为了提供定性分析和比较的方法,训练数据集被随机分割为训练,验证和测试集(200:66:69分割).HGG和LGG样本在这些组中按比例分配。
实验结果:
(1)定量结果
表1表示了所提出的HAD-Net以及竞争方法提供的Dice系数,Dice系数是一种集合相似度度量指标,通常用于计算两个样本的相似度,值的范围0-1,分割结果最好时值是1,最差时值为0。所有的方法在WT分割方面表现相似(没有统计学上的显著差异),在ET,TC分割方面,HAD-Net比其他方法表现性能更好。这证明HAD-Net能够成功地从教师那里提炼出有意义的信息给学生,最终在没有对比度增强图像(T1ce)的情况下,能够更好地进行分割。
(2)定性结果
为此,图2描述了来自本地测试集的4例患者的不同模型产生的分割结果,其中感兴趣的切片是根据它们描述增强肿瘤突出程度的清晰程度选择的。与其他方法相比,HAD-Net的分割输出与教师网络和ground truth (GT)最接近,特别是对于增强肿瘤和坏死核心。HAD-Net表现得性能较其他方法优越,在最后一行中,我们可以看到竞争的方法严重过度分割坏死的核心,对HAD-Net的输出这是一个不太明显的错误。尽管如此,这个案例表明,所提出的模型仍有改进的空间,因为HAD-Net仍然混淆了某些区域的水肿和坏死核心。这表明,为了避免这类错误,还需要向教师网络学习更多的信息。
(3)不确定性度量:
度量分割结果中的不确定性是很重要的,以便允许下游任务和临床医生评估系统在输出中的置信度。因此,至关重要的是,不确定性传达出,当系统对其断言有信心时,它是正确的,当它不正确时,它是不确定的。
表2几个不确定性值比较,值越高表示越好。图3显示了一个大的ET的定性结果。综合表明HAD-Net对正确的断言更加自信,对错误的断言更加不确定。
论文阅读:HAD-Net: A Hierarchical Adversarial Knowledge Distillation Network for Improved Enhanced Tumour相关推荐
- 论文阅读:A Progressive Architecture With Knowledge Review Network for Salient Object Detection
论文地址:https://ojs.aaai.org/index.php/AAAI/article/view/16408 发表于:AAAI 2021 Abstract 显著目标的定位与分割是显著目标检测 ...
- 论文阅读:Question Answering Over Temporal Knowledge Graphs
论文阅读:Question Answering Over Temporal Knowledge Graphs 我们首先在我们的新数据集上应用大型预训练的基于 LM 的 QA 方法. 然后,我们将时间和 ...
- 知识蒸馏论文翻译(1)——CONFIDENCE-AWARE MULTI-TEACHER KNOWLEDGE DISTILLATION(多教师知识提炼)
知识蒸馏论文翻译(1)--CONFIDENCE-AWARE MULTI-TEACHER KNOWLEDGE DISTILLATION(多教师知识提炼) 文章目录 知识蒸馏论文翻译(1)--CONFID ...
- 论文阅读:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
论文阅读:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation paper:https:// ...
- 【异构图笔记,篇章3】GATNE论文阅读笔记与理解:General Attributed Multiplex HeTerogeneous Network Embedding
[异构图笔记,篇章3]GATNE论文阅读笔记与理解:General Attributed Multiplex HeTerogeneous Network Embedding 上期回顾 论文信息概览 论 ...
- 论文阅读 [TPAMI-2022] U2Fusion: A Unified Unsupervised Image Fusion Network
论文阅读 [TPAMI-2022] U2Fusion: A Unified Unsupervised Image Fusion Network 论文搜索(studyai.com) 搜索论文: U2Fu ...
- 知识蒸馏论文翻译(5)—— Feature Normalized Knowledge Distillation for Image Classification(图像分类)
知识蒸馏论文翻译(5)-- Feature Normalized Knowledge Distillation for Image Classification(图像分类) 用于图像分类的特征归一化知 ...
- [论文阅读笔记17]A Survey on Knowledge Graph-Based Recommender Systems
一,题目 TKDE 2020 A Survey on Knowledge Graph-Based Recommender Systems 综述:基于知识图谱的推荐系统 In IEEE Transact ...
- 【推荐算法论文阅读】LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
这篇文章是基于NGCF提出的改进,NGCF相关的工作参考[推荐算法论文阅读]Neural Graph Collaborative Filtering 一.背景 通过严格的对照实验(在相同的数据集和评估 ...
最新文章
- Android新权限机制 AppOps
- selenium之 webdriver与三大浏览器版本映射表(更新至v2.29)
- Python函数参数匹配模型(上)
- python花钱培训值吗-python培训需要花多少钱?
- Windows下安装scikit-learn
- 加载程序中数据库账号密码加密策略wallet_04
- 从基础到实践,一文带你看懂HashMap
- 计算机在车联网的应用,刘小洋, 伍民友. 车联网: 物联网在城市交通网络中的应用[J]. 计算机应用, 2012, 32(4): 900-904....
- 如何使用ITEXTSHARP将HTML代码字符串写进PDF
- HttpClient 设置不当引发的一次雪崩
- Android Multimedia框架总结(二十七)MediaCodec回顾
- Windows通用文件关联错误恢复
- tplink迷你路由器中继模式_TP-link迷你无线路由器Repeater模式(中继模式)设置教程(转载).docx...
- Toplitz矩阵 Hankel矩阵 Hilbert矩阵
- 栈和队列有什么区别、以及他们的共同点
- 【SLAM】——编译项目orb-slam2_with_semantic_labelling
- 纸鸢|物联设备PLC梯形图编程
- C# Delegate引介
- w ndows10装什么浏览器,Windows10系统默认启用IE浏览器方法
- springboot找不到对象(自动注入失败)