目录

摘要

方法

平面定位的深度强化学习框架

动作Action

状态State

奖励Reward

智能体Agent

回放缓存Replay Buffer

损失Loss

热启动的特征点感知平面对准

过程

基于递归神经网络的主动终止

实验

Dataset Setting

参数

RL

RNN(主动终止)

3D U-net(检测胎儿脑landmarks)

评定标准

定量和定性分析

博文相关链接

References


用于 3D 超声平面定位的热启动和主动终止智能体[MICCAI 2019] DDQN-AT 特征点对齐、强化学习、CNN、RNN、SP 定位

摘要

1.为RL框架配备了一个特征点感知对齐模块,使用一个特征点感知对齐模型来利用地图集中关于标准平面的先验信息,减少复杂的宫内环境和不同的胎儿姿势造成的大搜索空间,为智能体动作提供热启动和强大的空间边界,从而确保其有效性。

2.使用CNN来检测超声体积中的解剖标志,并将它们注册到一个平面特定的图谱中,CNN在由对齐模块产生的有界环境中搜索目标sp。

因此,图集的平面配置为RL智能体操作提供了强大的空间边界和有效的初始化。

3.采用自适应的基于RNN的终止模块,在最优交互时动态停止RL代理。

基于递归神经网络(RNN)的策略来主动终止智能体的交互过程,而不是被动地和经验地终止agent推理。基于RNN的策略可以自适应地找到最优的终止点,从而同时提高了定位系统的精度和效率。

方法

为RL框架配备了(1)一个热启动的特征点感知对齐模块,以确保其有效性,

(2)采用基于递归神经网络的策略来主动终止交互过程,以提高其准确性和效率

平面定位的深度强化学习框架

类似于超声医生操作(action)探针(agent)扫描器官(environment),同时可视化屏幕上的中间平面(state),agent与environment交互,以学习能够最大化累积奖励(reward)的最佳策略,直到获得SP(最终state)。

设笛卡尔坐标系中的一个平面表示为cos(α)x+cos(β)y+cos(φ)z+d=0,其中n=(cos(α),cos(β),cos(φ))为法线,d为平面到体积中心原点的距离。

当智能体与环境交互时,系统将获得最优的平面参数。

动作Action

动作定义为对平面参数的增量调整。与[1]类似,完整的动作空间定义为8个动作,

即A=

给定一个动作,平面参数被相应地修改(例如)。

对每次迭代只调整一个平面参数,其他参数保持不变。

角度调整的步长为

每次迭代的距离步长ad设置为0.5voxel

智能体执行动作后,平面参数相应更新为

每个有效的动作根据规则r=sgn(D(Pt−1,Pg)−D(Pt,Pg))获得其标量奖励r,其中D计算从预测平面Pt到地面真实Pg的欧氏距离。r朝向首选目标。∈{+1,0,−1}指示智能体是否正在移动

在Q-learning之后,Deep Q-Network[6](DQN)可以通过深度网络学习状态动作值函数Q(s,a),

作为动作选择策略。

状态State

根据当前平面参数从体中采样体素重建的二维超声图像。

由于重建后的图像大小可能会改变,我们将图像填充到一个正方形上,并将其大小调整为224×224。

此外,我们将前两次迭代得到的两幅图像与当前平面连接起来,丰富了类似于[31]的状态信息。

奖励Reward

在本研究中,奖励被定义为agent是否接近或远离目标

sgn(·)为符号函数。

Pt  t时刻预测平面的平面参数(Pt,t时刻 plane)

Pg 目标真实平面(Pg,ground plane)

欧几里德距离

R∈{−1,0,+1},

其中+1和−1分别表示正运动和负运动,0表示没有调整。

智能体Agent

采用Q-learning的[32]作为SP定位的解决方案。

与现有的使用深度神经网络直接估计[31]值[31]的工作不同,

dueling learning[33]是用来鼓励agent学习哪些状态应该更加权,哪些状态在选择适当的行动时是冗余的。

具体来说,Q-value函数分别分解为一个状态值函数和一个与状态相关的动作优势函数。

agent神经网络的体系结构。蓝、绿、黄色的矩形分别代表卷积层、全局平均池化层、全连通层。

如图所示,deep duel neural network以状态作为输入,输出动作。

使用预先训练过的VGG [34]作为卷积主干。

#models提供了常用网络结构,及其预训练模型,可以通过简单调用来读取网络结构和预训练模型
from torchvision.models import vgg13_bn
#autograd自动微分
from torch.autograd import Variableclass Net(nn.Module):def __init__(self):super(Net, self).__init__()self.feature = vgg13_bn(pretrained=False).featuresself.linear1 = nn.Linear(512*7*7, 512)self.relu = nn.ReLU(inplace=True)self.drop = nn.Dropout(0.5)self.fc1_adv = nn.Linear(in_features=512, out_features=128)self.fc1_val = nn.Linear(in_features=512, out_features=128)self.fc2_adv = nn.Linear(in_features=128, out_features=8)self.fc2_val = nn.Linear(in_features=128, out_features=1)def forward(self, x):x = self.feature(x)x = x.view(x.size(0), -1)x = self.drop(self.relu(self.linear1(x)))adv = self.drop(self.relu(self.fc1_adv(x)))val = self.drop(self.relu(self.fc1_val(x)))adv = self.fc2_adv(adv)val = self.fc2_val(val).expand(x.size(0), 8)x = val + adv - adv.mean(1).unsqueeze(1).expand(x.size(0), 8)return x

每层特征数中的特征数分别为64、128、256、512、512个。

为了缓解梯度消失的问题,在神经网络的每个卷积层之后添加批归一化层[35]。

将提取出的高级特征输入到两个独立的全连接层流中,以估计状态值和与状态相关的动作优势值。全连接层的隐藏单元在状态值估计流中为512、128、1,

在与状态相关的动作值估计流中为512、128、8。这两个流的输出被融合,以预测最终的q值

回放缓存Replay Buffer

内存容器,它存储agent的转换,以执行学习过程的经验重放。

元素转换通常用一个向量表示

给定优先级的replay buffer存储agent-环境交互中每个步骤t的状态s、动作a、奖励r和下一步s0的状态的数据序列,这可以消除数据相关性,提高采样效率。

本研究采用优先级回放缓存[36]来提高学习效率。

具有高误差的第i个序列元素将优先从buffer中采样,其采样概率可以计算为

p = 0.6控制使用多少优先级

δ = 0.05被设置为调整误差ei。

采用了重要性抽样权值来纠正优先级重放中数据分布变化引起的偏差。

损失Loss

在agent达到最终状态之前,存在着许多状态和行动的组合。

在经典的Q-learning(Danain,1992)中,我们没有将所有的state,action,(Q-values)存储在表中,

而是选择了像深度Q network(DQN)(Mnih等人,2015)这样的策略,

其中CNN被用来模拟state,action和Q-values之间的关系。

具体来说,我们采用了双DQN(DDQN)(Van Hasselt et al.,2016)方法,以减轻DQN引起的向上偏差,更好地稳定训练过程。

将Q-learning函数Q(s,a;w)分解为两个独立的估计量:

状态值函数

状态相关的动作优势函数

W=

其中s是代理的输入状态,a是动作,wc,wv,ws分别表示卷积层和两个全连通层的参数,

agent的Q值函数的计算方法为:

|A| = 8表示动作空间的大小

为了提高DQN对三维超声中噪声环境E的鲁棒性,最终选择了Double DQN(DDQN)[11]作为平面定位的深度智能体。

DDQN的损失函数被定义为:

γ∈[0,1]是衡量未来奖励的折扣因子,

s,a是当前的状态和动作,ˆs和ˆa是下一步的状态和行动。

M是经验重放存储器,以避免频繁的数据采样。w和˜w为当前和目标网络参数。

Q network,Q(ω)用于获取当前步骤的Q-values和下一步中的动作a0。

表示用来估计下一步的Q-values的目标Q网络。

ω和˜ω是Q network和目标Q network的网络参数。

利用− greedy 算法选择action,以平衡训练过程中的探索和开发(Mnih et al.,2015)。

通常,Q-values将由全连接层输出,并指导agent的操作来更新平面参数。

热启动的特征点感知平面对准

图像质量低、数据量大、胎儿姿势多样,在三维超声中定位SP是非常具有挑战性的。

此外,由于嘈杂的三维超声环境,在[9]中使用的随机状态初始化经常无法定位SPs。

因此,提出了一个landmark感知对齐模块,作为通过解剖先验知识的搜索过程的专用warm start。

为了确保RL 智能体与嘈杂的3D 超声环境的有效交互,提出了一个特征点感知平面对齐模块来利用解剖先验,并为智能体提供一个热启动。

(优化中warm start一般是采用“相关或简化问题的最优解(至少是可行解)”来作为原问题的初始值,因此可以更快收敛。

此外,在非线性优化问题中可能存在很多局部极小值,良好的初值猜测可以有效的避免陷入局部极小,因此warm start为优化问题提供了非常好的开端。

例如,采用上一次优化的结果作为下一次优化的初值。)

(图像中的landmark译为特征点,能够以点的形式描述出某个物体的形状和部件。得到特征点后,可以得到简单的几何形状信息或者是在其周围的提取强特征进行进一步的利用,如分类或回归等)

具体来说,我们首先用定制3D U-net[8]检测了胎儿大脑的三个标志,即胼胝体膝、胼胝体压部和小脑蚓部,如图(a)三个红点所示。

然后利用这些特征点

测试体积地图集  对齐。(atlas 包含参考特征点标准平面参数的)

(landmark配准类似于人脸关键点的对齐,人脸对齐可以简单的理解为就是为了把比如歪着的人脸、尺度不正常的人脸、在图像中位置偏移的人脸,都矫正成比较标准的人脸

图出自人脸检测-人脸对齐-人脸识别原理及方法_陈 洪 伟的博客-CSDN博客_人脸比对原理)

RigidRegistration刚性配准 影像对准结果

图出自PythonITK3D刚性影像对准RigidRegistration置中初始化教程与范例 _ 小媛啾

与[5,7]将共同的解剖模型应用于各种标准平面的解剖模型不同,建议为每个平面选择特定的图谱进行改进定位精度。

图3   100个超声体积的特征点(左)与特定地点的地图集空间(中间)对齐,

为RL智能体操作提供了强大的空间边界(右)。

红、绿、蓝点表示图1(a).所示的标志

图1   胎儿大脑平面的三维图像。(a)蓝线表示经丘脑(TT)和经小脑(TC)平面位置。红点(从左到右)显示三个标志:胼胝体膝、胼胝体压部、小脑蚓部。(b)(c)两卷的平面示例说明了巨大的搜索空间和较大的胎儿姿势变化。(彩色图形在线版)

图5  胎儿脑标志物在对齐前后分布的三维可视化。不同的颜色点代表不同的类别地标。

最后,将图谱的标准平面映射到测试超声体积上,并作为我们的RL 智能体的热启动。

一种标准平面P的图集选择公式如下:

 其中,i,j是体积指数。niP是P在体积i中的法线,Θ计算法线之间的夹角,diP是从体积i中的平面P到原点的距离。Tij是从体积j到体积i的变换矩阵,由基于特征点标注的刚性配准决定。

图3显示了我们对100超声体积的特征点对齐的效果。精确的对齐保证了RL代理的初始点的有效性,从而导致快速和改进的平面定位。

过程

landmark感知对齐

1.使用预先训练好的CNN来检测超声体积中的解剖标志(Landmarks)

2.将每个超声体积作为一个初始化的模板(Atlas),采用迭代最近点算法对剩余的超声体积进行基于landmark的刚性配准

3.根据每个模板(Atlas)的平面  与  标准平面真实值 之间测量的平均平面误差,

选择误差最小的作为最终模板(Atlas)。

warm start

1.与直接回归不同,基于landmark检测和匹配,将测试体积与模板atlas对齐

2.通过由landmark计算的  变换矩阵 将 体积 映射到 模板空间,得到有界搜索环境

3.初始平面:

训练时,训练DDQN的起始平面在±25◦的角度范围和±10 mm的距离范围内,围绕真实平面随机初始化。该范围由基于模板的平均平面定位误差决定。

测试时,将模板的标准平面映射到测试体积上,作为初始平面。

4.CNN在有界环境中搜索目标标准切面(sp),landmark的高斯映射作为标准平面生成

基于递归神经网络的主动终止

为了确保RL 智能体之间的有效交互,提出了一个基于RNN的主动终止(AT)模块来告诉智能体何时停止。

通常,没有明确定义的标准来终止RL学习的迭代推理。对终止状态的低估和高估往往会降低最终的定位。

现有的工作利用一个预定义的最大阶跃,一个较低的Q值[1]或Q值[3]的振荡作为终止的指标。

第一个如果设置为较大的数字,会浪费大量的计算资源,而后两个并不一定会得到最优的结果。

图4  训练数据集上8个候选动作(黄色)和ADI(蓝色)的平均q值。绿点表示ADI最大的最优终止步长。

如图4所示,角度和距离改善最大的最优终止步长(ADI)既不是最大的步长,也不是Q值最小的步长。

这促使我们提出一种新的策略来积极地学习最佳步骤。具体来说,考虑到迭代推理的序列特征,

如图2所示,我们用递归神经网络表示了q值序列与最优步长之间的映射。

每个状态的8个候选动作的q值作为我们的RNN的输入,

然后RNN学习输出ADI最高的最优终止步骤,即最显著的角度和距离改善。

用智能体对训练量的推理结果来训练RNN模型。

在测试过程中,根据RNN输出终止了智能体的迭代动作,得到了最终的平面参数。

有了这种主动终止机制,智能体可以在不进行过度迭代的情况下进行有效的推断。

实验

Dataset Setting

验证了解决方案,在超声体积定位两个标准平面(TT和TC)的胎儿大脑。

建立了一个来自430名健康孕妇志愿者的430个产前超声体积的数据集。

胎龄范围为19-31周,比[4,7]要宽得多。

数据集的平均体积大小是270×207×235,统一的体素大小是0.5×0.5×0.5 mm3。

有5年经验的超声医生为所有体积提供地标和标准平面的手工注释。

将数据集随机分成330体积和100体积进行训练和测试

(各向同性就是各个方向体素相同,如文件的体素空间(spacing)为 1mm*1mm*1mm

各向异性就是各个方向体素不同, 如文件的体素空间(spacing)为 1mm*1mm*5mm)

经当地机构审查委员会批准,所有超声都是匿名的,并由专家使用带有集成3D探头的迈瑞DC-9超声系统获得。

train是训练集,
val是训练过程中的测试集,是为了在边训练边看到训练的结果,及时判断学习状态。来验证是否过拟合、以及用来调节训练参数等。与train没有交集,对最终训练出的模型没有贡献。
test就是训练模型结束后,用于评价模型结果的测试集。
只有train就可以训练,val不是必须的,比例也可以设置很小。

test对于model训练也不是必须的,但是一般都要预留一些用来检测,通常推荐比例是8:1:1

但现在很多模型都不用validation了。
现在模型中防止过拟合的机制已经比较完善了,Dropout\BN等做的很好了。
而且很多时候都用原来的模型进行fine tune,也比从头开始更难过拟合。
所以大家一般都定一个训练迭代次数,直接取最后的模型来测试。

参数

PyTorch

RL

Adam优化器[40]对整个框架进行了训练,

对DDQN进行了 epoch =100(约4天)的训练、

将损失函数(公式2)中的discount factor(折扣因子)   γ设为0.9。(γ∈[0,1])

目标Q network每2000次迭代复制一次Q network的参数。

# =============== define training# batch size, INTself.batch_size = 4# target net weight update term, INT# 目标Q network每2000次迭代复制一次当前Q network的参数self.target_step_counter = 2000# learning rate, FLOATself.lr = 5e-5# weight decay, FLOATself.weight_decay = 1e-4# reward decay  γ, FLOATself.gamma = 0.95# memory capacity, INT  有优先级的Replay-bufffferself.memory_capacity = 15000# =============== define default# gpu idself.gpu_id = 0# total epochself.num_epoch = 100# max stepsself.max_step = 75

RNN(主动终止)

对于训练RNN变体(原始RNN和LSTM),优化器是Adam与L1回归损失,批大小= 100,隐藏大小= 64和epoch=200(约15 min)。L2损失用于训练。采用迭代最近点算法进行测试用例与图集之间的刚性配准。

3D U-net(检测胎儿脑landmarks)

Adam优化器,batch size = 1, learning rate = 0.001, moment is 0.5, epoch = 40

受GPU内存限制,超声体积调整为0.4倍用于训练。

特征点的高斯地图作为标准切面生成。

用L2-范数回归损失训练了一个定制的3D U-net [38](检测了胎儿大脑的三个标志,即胼胝体膝、胼胝体压部和小脑蚓部,如图(a)三个红点),所示表示为:

其中N = 3为landmark数,Hi、ˆHi分别表示第i个预测的landmark热图和标准landmark热图。

基于验证集选择了超参数,并在保留的测试集上使用几个指标来评估我们的方法的性能。

对每个具有不同大小的超参数进行了模型训练,并评估了在验证数据集上的性能。

选择了具有最佳验证性能的超参数值作为训练阶段的默认设置。

在本研究中,搜索了三个高影响的超参数,包括Replay Buffer的大小、γ和。

评定标准

使用了三个标准来评估平面定位
空间相似性

1.两个平面之间的二面角(Ang)

np,ng表示预测平面和目标平面的法线

2.两个平面到原点的欧氏距离差(Dis)

dp,dg表示与体积的距离原点到预测平面,原点到真实平面

(Ang和Dis是基于平面采样函数,即cos(α)x + cos(β)y + cos(γ)z = d,

有效体素大小为0.5 mm3/voxel

内容相似性

3.峰值结构相似度(SSIM)。

并将迭代t中的ADI定义为距离起始平面距离角度的累积变化之和,如下

-RL 智能体(DDQN-at)在两种标准平面的定位化上具有良好的性能,优于基于回归的方法(Regress)、基于注册的方法(AtlasRegist)和它们的组合(RegistRegress)。

这可以归因于主动的交互作用沿着轨迹向最优平面搜索的智能体的搜索过程。

-在ddqn上使用特征点感知空间对齐模块作为热启动时,它们在标准平面定位上的性能明显优于不对齐的方法(DDQN-nA)。

此外,所提出的空间对齐模块也可以部署在回归模型中,并导致明显的改进(RegistRegress)。

-所提出的主动终止可以用更少的智能体迭代来实现更好的定位。

与其他终止策略相比,如最大步长(DDQN-maxS)和最小q值(DDQN-minQ),我们的基于AT的方法通常提供更好的定位性能。

其中,DDQN-AT(LSTM)的学习效果最好,因为它对Q-value sequence的学习能力更强。更重要的是,在配备了AT模块后,我们的RL-智能体平均需要13个步骤来定位标准平面,而没有使用AT模块需要100个步骤。考虑到这样的迭代步骤花费最大的计算,AT模块肯定会提高RL智能体的效率。

标准切面(左)和预测(右)平面

图5。TC(左)和TT(右)的结果

左,主动终止步骤(红色虚线)与绿点的最优步骤比较,标准切面三维可视化和预测平面(右)。

在图5中,可视化了DDQN-AT(LSTM)对TC和TT平面定位的两个测试结果。

从图像内容和空间关系来看,对于这两个任务,都准确地捕获了平面,这非常接近标准切面值。

主动终止策略还提供了从Q-value sequence中学习的能力,并达到最佳的终止步骤(绿点),以实现大角度和距离的改进(ADI)。

定量和定性分析

所提出的RL代理(DDQN-AT)在两种标准平面的定位上具有良好的性能,优于基于回归的方法(回归)、基于注册的方法(AtlasRegist)和它们的组合(注册回归)。这可以归因于主动的交互作用沿着轨迹向最优平面搜索的代理的搜索过程。

其次,从表中可以清楚地看出,当在ddqn上使用地标感知空间对齐模块作为热启动时,它们在标准平面定位上的性能明显优于不对齐的方法(DDQN-nA)。此外,所提出的空间对齐模块也可以部署在回归模型中,并导致明显的改进(注册回归)。

最后,所提出的主动终止可以用更少的推理迭代来实现更好的定位。与其他终止策略相比,如最大步长(DDQN-maxS)和最小q值(DDQN-minQ),我们的基于AT的方法通常提供更好的定位性能。其中,DDQN-AT(LSTM)的学习效果最好,因为它对q值序列的学习能力更强。更重要的是,在配备了AT模块后,我们的RL-agent平均需要13个步骤来定位标准平面,而没有使用AT模块需要100个步骤。考虑到这样的迭代步骤花费最大的计算,AT模块肯定会提高RL代理的效率。

在图5中,我们可视化了DDQN-AT(LSTM)对TC和TT平面定位的两个测试结果。从图像内容和空间关系来看,对于这两个任务,我们的方法都准确地捕获了平面,这非常接近真实值。

我们的主动终止策略还提供了从q值序列中学习的能力,并达到最佳的终止步骤(绿点),以实现大角度和距离的改进(ADI)。

博文相关链接

Agent with Warm Start and Adaptive Dynamic Termination for Plane Localization in 3D Ultrasound_luemeon的博客-CSDN博客

Searching Collaborative Agents for Multi-plane Localization in 3D Ultrasound多智能体强化学习(MARL)定位超声多个标准切面_luemeon的博客-CSDN博客

Agent with Tangent-based Formulation and Anatomical Perception for Standard Plane Localization in 3D_luemeon的博客-CSDN博客

识别、提取三维超声中标准平面的总结+论文+代码合集_luemeon的博客-CSDN博客

References

1. Alansary, A., et al.: Automatic view planning with multi-scale deep reinforcement
learning agents. In: Frangi, A.F., Schnabel, J.A., Davatzikos, C., Alberola-L´opez,
C., Fichtinger, G. (eds.) MICCAI 2018. LNCS, vol. 11070, pp. 277–285. Springer,
Cham (2018). https://doi.org/10.1007/978-3-030-00928-1 32
[1] L. Salomon, Z. Alfifirevic, C. Bilardo, G. Chalouhi, T. Ghi, K. Kagan,
T. Lau, A. Papageorghiou, N. Raine-Fenning, J. Stirnemann, S. Suresh,
A. Tabor, I. Timor-Tritsch, A. Toi, and G. Yeo, “Erratum: ISUOG
practice guidelines: Performance of fifirst-trimester fetal ultrasound scan,”
Ultrasound in Obstetrics and Gynecology, vol. 41, no. 2, pp. 102–113,
2013.
2. Chykeyuk, K., Yaqub, M., Alison Noble, J.: Class-specifific regression random forest
for accurate extraction of standard planes from 3D echocardiography. In: Menze,
B., Langs, G., Montillo, A., Kelm, M., M¨uller, H., Tu, Z. (eds.) MCV 2013. LNCS,
vol. 8331, pp. 53–62. Springer, Cham (2014). https://doi.org/10.1007/978-3-319-
05530-5 6
3. Ghesu, F.C., et al.: Multi-scale deep reinforcement learning for real-time 3D
landmark detection in CT scans. IEEE TPAMI 41(1), 176–189 (2019)
4. Li, Y., et al.: Standard plane detection in 3D fetal ultrasound using an iterative
transformation network. In: Frangi, A.F., Schnabel, J.A., Davatzikos, C., Alberola
L´opez, C., Fichtinger, G. (eds.) MICCAI 2018. LNCS, vol. 11070, pp. 392–400.
Springer, Cham (2018). https://doi.org/10.1007/978-3-030-00928-1 45
5. Lorenz, C., Brosch, T., et al.: Automated abdominal plane and circumference esti
mation in 3D US for fetal screening. In: Medical Imaging 2018: Image Processing,
vol. 10574, p. 105740I (2018)
6. Mnih, V., Kavukcuoglu, K., et al.: Human-level control through deep reinforcement
learning. Nature 518(7540), 529 (2015)
7. Namburete, A.I., Stebbing, R.V., Noble, J.A.: Diagnostic plane extraction from 3D
parametric surface of the fetal cranium. In: MIUA, pp. 27–32 (2014)
8. Ronneberger, O., Fischer, P., Brox, T.: U-Net: convolutional networks for biomed
ical image segmentation. In: Navab, N., Hornegger, J., Wells, W.M., Frangi, A.F.
(eds.) MICCAI 2015. LNCS, vol. 9351, pp. 234–241. Springer, Cham (2015).
https://doi.org/10.1007/978-3-319-24574-4 28
9. Ryou, H., Yaqub, M., Cavallaro, A., Roseman, F., Papageorghiou, A., Noble,
J.A.: Automated 3D ultrasound biometry planes extraction for fifirst trimester fetal
assessment. In: Wang, L., Adeli, E., Wang, Q., Shi, Y., Suk, H.-I. (eds.) MLMI
2016. LNCS, vol. 10019, pp. 196–204. Springer, Cham (2016). https://doi.org/10.
1007/978-3-319-47157-0 24
[9] A. Alansary, L. Le Folgoc, G. Vaillant, O. Oktay, Y. Li, W. Bai,
J. Passerat-Palmbach, R. Guerrero, K. Kamnitsas, B. Hou, et al.,
“Automatic view planning with multi-scale deep reinforcement learning
agents,” in International Conference on Medical Image Computing and
Computer-Assisted Intervention, pp. 277–285, Springer, 2018.
10. Schmidt-Richberg, A., Schadewaldt, N., et al.: Offffset regression networks for view
plane estimation in 3D fetal ultrasound. In: Medical Imaging 2019: Image Process
ing, vol. 10949, p. 109493K (2019)
11. Van Hasselt, H., Guez, A., Silver, D.: Deep reinforcement learning with double
q-learning. In: AAAI, pp. 1234–1241 (2016)
[31] V. Mnih, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. Veness, M. G.
Bellemare, A. Graves, M. Riedmiller, A. K. Fidjeland, G. Ostrovski,
et al., “Human-level control through deep reinforcement learning,”
Nature, vol. 518, no. 7540, pp. 529–533, 2015.
[32] C. J. Watkins and P. Dayan, “Q-learning,” Machine Learning, vol. 8,
no. 3-4, pp. 279–292, 1992.
[33] Z. Wang, T. Schaul, M. Hessel, H. Hasselt, M. Lanctot, and N. Freitas,
“Dueling network architectures for deep reinforcement learning,” in
International Conference on Machine Learning, pp. 1995–2003, 2016.
[36] T. Schaul, J. Quan, I. Antonoglou, and D. Silver, “Prioritized experience
replay,” International Conference on Learning Representations, 2016.

Agent with Warm Start and Active Termination for Plane Localization in 3DUltrasound基于强化学习的超声标准切面相关推荐

  1. Agent with Warm Start and Adaptive Dynamic Termination for Plane Localization in 3D Ultrasound

    目录 摘要 方法 框架 landmark感知对齐 平面特定图集构建 测试体积图集对齐 自适应动态终止 实验 Dataset Setting 参数 RL RNN(自适应动态终止Adaptive Dyna ...

  2. Agent with Tangent-based Formulation and Anatomical Perception for Standard Plane Localization in 3D

    目录 摘要 简介 方法 平面定位的强化学习 动作Action(8维->6维) 状态State 奖励Reward(SLR+ASR) 回放缓存Replay Buffer 损失Loss 状态内容相似度 ...

  3. 识别、提取三维超声中标准平面的总结+论文+代码+数据集+练习合集

    目录 数据特点 三维空间定位标准平面 基于监督学习方法 基于强化学习方法 wulalago/LearningNote: some resources on my path in deep learni ...

  4. 用自然语言指导强化学习agent打游戏,这是斯坦福的最新研究

    本文来自AI新媒体量子位(QbitAI) 斯坦福大学计算机科学系的三位学者,在近日发表的论文中,介绍了一个打Atari游戏的深度强化学习agent,不同之处是,这个agent听从自然语言的指导. 人类 ...

  5. 【控制】《多智能体机器人系统信息融合与协调》范波老师-第6章-基于分布式强化学习的多 Agent 协调方法

    第5章 回到目录 第7章 第6章-基于分布式强化学习的多 Agent 协调方法 6.1 引言 6.2 多 Agent 强化学习基本理论 6.2.1 基于局部合作的 Q 学习 6.2.2 基于区域合作的 ...

  6. 多智能体强化学习Multi agent,多任务强化学习Multi task以及多智能体多任务强化学习Multi agent Multi task概述

    概述 在我之前的工作中,我自己总结了一些多智能体强化学习的算法和通俗的理解. 首先,关于题目中提到的这三个家伙,大家首先想到的就是强化学习的五件套: 状态:s 奖励:r 动作值:Q 状态值:V 策略: ...

  7. 强化学习笔记3:RL agent的主要组成部分

    对于一个强化学习 agent,它可能有一个或多个如下的组成成分: 策略函数(policy function),agent 会用这个函数来选取下一步的动作. 价值函数(value function),我 ...

  8. 强化学习训练Agent走直线

    Pytorch深度强化学习训练Agent走直线 问题提出 最近在学强化学习,想用强化学习的方法做一个机器人的运动路径规划,手头刚好有一个项目,问题具体是这样:机器人处在一个二维环境中,机器人的运动环境 ...

  9. 强化学习理论基础(MDP、值函数与贝尔曼公式以及表格式Agent)

    强化学习理论基础(MDP.值函数与贝尔曼公式以及表格式Agent) 前言 一.MDP策略与环境模型 二.值函数与贝尔曼公式 1. 值函数 2. 贝尔曼公式 三.表格式Agent 1. 概念介绍 2. ...

最新文章

  1. php中的static,php中的static
  2. 【Vegas原创】GridView设定DataFormatString属性失效的解决方法
  3. ABAP 编程语言中的系统字段(System Fields)
  4. 快速构建网站或移动端页面:关于Bootstrap的学习笔记
  5. 「雕爷学编程」Arduino动手做(20)—水银开关模块
  6. 深入理解MySQL索引设计和优化原则
  7. 移动端开发——京东首页制作(流式布局)
  8. SharePoint中文WiKi
  9. covariance 公式_黑体辐射的近似公式
  10. 德国计算机博士怎样,2020年德国IT博士offer什么时候发
  11. java修改文件后缀_java批量修改文件后缀的方法介绍
  12. python 物理引擎_第十六章:物理引擎
  13. 扩展卡尔曼滤波算法 EKF
  14. 《产品经理深入浅出》PART 3:产品经理专业技能
  15. MySQL Shell 安装与基本使用
  16. 【浅析华容道之一】华容道的前世今生
  17. 基于TPS(Thin Plate Spines)的STN网络的PyTorch实现
  18. 操作系统文件管理习题
  19. 让div在body中居中显示
  20. Transformer Cognos操作

热门文章

  1. 清华大学计算机陈蓓,清华大学2010级本科生新生代表座谈会举行
  2. 重读《从菜鸟到测试架构师》-- 从专家到高手
  3. 数据资产治理:元数据采集那点事
  4. 为什么顺丰快递就要比别的快递快,别的快递难道做不到吗?
  5. 南阳理工acm71 独木舟上的旅行(贪心简单题)
  6. 华为认证hcia含金量_华为认证那个证书有什么用?
  7. IDEA中运行SparkSql报javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
  8. 夜光带你走进C# 游戏开发等(七十九)擅长的领域
  9. sx1278lora模块的常见问题解答
  10. 揭秘京东文件系统JFS的前世今生,支持双11每秒约10万个对象同时读写