本文对 :https://arxiv.org/abs/1904.08128 文章后面的Supplementary Information 进行补充

A Dataset details(数据集详细信息)

下表提供了包含数据集来源的手稿,这里记录的数值都是通过这些对应的数据集计算出来的。
       1.打 * 的代表数据集中有多重标注(还没有具体看一下有什么差别)
       2.MSD的肝脏数据集做了一些小的修改


B nnU-Net Design Principles(网络设计原则)

在这里,我们从概念层面简要概述了nnU网络的设计原则。有关如何实施这些指南的更详细信息,请参考在线方法

B.1 Blueprint Parameters(蓝图参数)

Architecture Design decisions(架构设计决策)

  • 形如UNet的网络架构,只要设置足够好管道参数,就能达到SOTA水平。根据我们的经验,花里胡哨的网络结构的变异对于提升模型表现并不是必要的。
  • 我们的网络仅仅使用了平面的卷积、instance_normalization和Leaky_Relu,每一个采样块的操作就是卷积 -> instance_normalization -> Leaky_Relu。
  • 我们在同一像素的stage(对称位置)的编码区域和解码区域都使用这个采样块(需要看下拓扑图确定有几块)
  • 下采样是有步长的卷积(新的分辨率层的第一块的卷积的步长 > 1)。上采样采用的是转置卷积。我们注意到,并未观察到该方法与其他方法(如最大池法、bi/ triinear上行采样法)在分割精度上的实质性差异

Selecting the best U-Net configuration(选择最佳U-Net配置)

很难估计哪个U-Net配置在哪个数据集上表现最好。为了解决这个问题,nnU Net设计了三种不同的配置,并根据交叉验证自动选择最佳配置(参见推断参数)。预测哪些配置应该在哪个数据集上进行训练是未来的研究方向:

  • 2D_Unet:在全像素数据上运行。对于具备各向异性的数据,我们期待这个发挥更大的功效;
  • 3D_full_resolution_Unet:在全像素数据上运行。patch_size被GPU的显存所限制,但这个基本在所有的数据上的都保证了好的表现。但是,对于一些大的数据来说,patch_size可能会有点小,不足以获得足够的上下文信息。
  • 3D_low_resolution_Unet: 这部分要先训练,才能进行cascade的训练。本身这个网络也具备一定的分割能力。
  • 3D_UNet_cascade:专门为一些大体积的数据而设计,首先,用一个3D_Unet在低分辨率上进行一次粗糙的图像分割,然后通过第二个3D_Unet对之前生成的分割图像进行一次在高分辨率上的操作。

Training Scheme(训练计划)

  • 首先使epoch:所有的训练都按照初始的1000epoch在跑,每一轮要进行250次的迭代(使用nnUNet)。经验之谈,训练的时间越短可能效果越好。
  • 现在说一下优化阶段:经验之谈,0.01的初始学习率和nesterov动量规则会有最好的效果。训练之中使用"poly_Learning_Rate"来进行学习率的衰减,几乎使学习率线性下降为0。
  • 数据增强:数据增强对于实现最好的效果十分有必要,但是在整个训练过程中运用动态的数据增强会更好,同时. 以相关概率获得永无止境的独特示例流 (参考Section D )。
  • 样本类别平衡问题:对于医学图像领域来说,这是一个棘手的问题。对于前景的过采样可以很好的解决找个问题,但是也别采样的太过分,因为网络也会注意到背景数据的一些变化。
  • Dice损失函数对于处理样本类别平衡问题也很合适,但是也有它自己的缺点。Dice损失直接可以对评估算法进行优化,但是因为patch是基于训练的,所以实际中仅仅是近似它。而且,实验中发现类别的过采样会使得类别分布有一定的倾斜。因此,经验之谈,我们将Dice loss和CE loss进行组合,以此来增加训练的稳定性和分割的精度

Inference(推理)

  1. 每一折的验证集都会被这一折独立训练出来的模型进行验证。每一折训练一个模型只是为了之后做组合来预测。
  2. 推理阶段的patch和训练阶段的patch是一致的,不建议使用全卷积的推理方式,因为这样会导致0填充卷积和Instance_normalization的问题。
  3. 为了避免拼接出现的伪影,通过设置1/2的patch_size大小的距离来进行临近点预测。边缘部分的预测将更不精确,这就是为什么我们要为softmax的聚类使用高斯重要性加权(中心点的权重比边缘的权重更高)

B.2 Inferred Parameters(推理参数)

这些参数在数据集中不是固定的,而是根据你自己的准备训练的数据的“数据指纹”(数据属性的低纬度表示),在训练过程中进行动态调整的

Dynamic Network adaptation(网络动态自适应)

  • 在训练过程中,网络结构需要自动适应输入patch的尺寸和spacing,以确保网络能接受的区域大小覆盖整个输入;
  • 不断的进行下采样来聚合信息,直到特征图达到最小值(4x4x4)。
  • 因为编码阶段和解码阶段的每个像素层的block的数量都是固定的,那么网络的深度就会与输入patch_size的大小相对应。网络中卷积层的总数(包括分割层)应该是:5*k+2(其中k是下采样的次数,5次下采样源于编码器中的2次conv,解码器中的2次conv加上卷积转置
  • 除了解码器的最底下两层之外,所有的解码层都用了额外的损失函数,只为让更多的梯度信息注入网络中。
  • 对于各向异性的数据来说,池化会只在平面之间进行,直到轴之间的像素值匹配为止。刚开始时3D卷积会使用一个1x1大小的卷积核来在平面外的轴(z)上进行卷积,通过这种方式来防止离得较远的切片产生信息的聚合。一旦这个轴越卷越小,下采样就会单独为这个轴停止卷积。

Configuration of the input patch size(输入patch_size的配置)

  • 在batch_size为2的基础上,同时受到GPU的限制patch_size应当越大越好,这样所能得到的上下文的信息就越大。
  • patch大小的纵横比应该是,训练的每一套CT重采样以后的中值形状。

Batch size

  • batch_size的最小值应当为2,因为如果是在minibatch的更少的样本下训练,梯度下降中的噪声将会增多。
  • 如果GPU的显存在设置完patch_size之后仍然有剩余,那么应该不断增大batch_size直到显存溢出

Target spacing and resampling(目标间距和重采样)

  • 对于各向同性的数据,所有训练集CT的体素尺寸的中位数作为默认值。然后利用三阶样条插值(对数据)和线性插值(像训练的标签那样的独热编码分割图)进行重采样,会得出一个比较好的结果。
  • 对于各向异性的数据,平面以外的轴(z)的目标间隔应当比这个轴上的中位数要小,这样就会生成尽量高分辨率的图像,可以减少重采样的伪影。为了实现这样的操作,我们把所有该轴上的spacing的值从小到大排列,取在第10%位置的那个数,作为最终的目标间隔。z轴的重采样无论是对数据还是对标签(one-hot),都采用最临近插值算法插值

Intensity normalization(强度归一化)

  • 对除了CT外的其他模态的方法:对每张图片进行Z-Score(每个像素值减去所有像素平均值,然后除以标准差)是一个好的默认方法。
  • 对CT的方法:上面设置的Z-Score是默认的,而nnUNet对CT采用不同的方法,比如通过找到训练集中每一套CT的前景像素值进行全局归一化。

B.3 经验参数

这些参数是不能通过数据指纹简单得到的,是需要监督训练过后的验证表现来确定的。

Model selection(模型选择)

即使是当3D_full_resolution_UNet整体表现都不错的时候,一个特定任务的最好模型选择都不可能很精准。因此,nnUNet会生成3个UNet配置并且会在交叉验证后自动选择一个表现最好的方法(独立或者结合)

Postprocessing(后处理)

医学图像数据的目标结构经常包含一个实例,所以这个先验知识经常被来进行图像分割,即通过连接分支分析算法来进行预测,同时移除除了最大组件外的所有其他组件。是否应用这个算法是由交叉验证之后的验证表现决定的。总的来说,就是通过移除最大组件之外的其他组件可以明显提高Dice系数的时候,后处理会被触发。


C Analysis of exemplary nnU-Net-generated pipelines(可效仿的nnUNet自生成管道的分析)

在这个部分,我们会简短的介绍以下D13(ACDC)和D14(LiTS)两个数据集的实验结果,这样对于nnUNet怎么设计“管道”以及为什么设计“管道”就会有一个直观的理解。

C.1 ACDC

图C.1提供了nnU Net为此数据集自动生成的管道的摘要

Dataset Description(数据集描述)

ACDC是MICCAI在2017年举办的竞赛,这是数据集地址 https://acdc.creatis.insa-lyon.fr.。在这个竞赛中,参赛者被要求从心脏的MRI中分割出右心室、左心肌和左心室的腔。每个病例对应着两个标签,所以100个病例对应的标签的个数总共是200。电影磁共振成像的一个关键特性是切片采集在多个心跳周期和屏气中进行。这将导致有限的切片数量,从而导致低的平面外分辨率(z)以及切片图像失调的可能性。图C.1提供了nnUNet为这个数据集生成的“管道”的一个摘要。这个典型的图片形状是(每个轴上的中位数)9x237x256,而体素大小是10x1.56x1.56mm。

Intensity Normalization(强度归一化)

对于MRI图像来说,nnUNet的归一化方式是:图片的像素值(强度值)先减去他们的均值,再除以他们的标准差。

2D U-Net

1.56x1.56mm是确定的平面内的目标间隔的大小,这一点上是和3D_full_resolution_UNet一样的。因为2D_Unet仅仅对每一层的切片进行操作,所以它的平面外的轴(z)的像素值不会发生变化,这就导致不同的数据集往往这个值都是不同的。按照线上的方法,2D_Unet有一个256x224大小的patch_size,能够完全覆盖典型的图像重采样之后的尺寸(237x208)

3D_UNet

  • 这个数据集尺寸和间隔的各向异性导致了,在3D_full_resolution_UNet的情况下,平面外轴(z)的目标间隔被设定为5mm(这个值依旧是按照之前所述的规则,即将所有病例的目标间隔进行排序,然后选择处于第10%这个位置的目标间隔的值)。在这个ACDC数据集中,因为层与层的间隔很大,所以层与层的分割边缘也会很大。选择更小的目标间隔就会使得上采样用于训练和下采样用于输出分割的图片更多。选择这个变量而不是中值变量的原因正是如此,产生更多的图片用于上采样和下采样,自然也就能够有利于消除插值伪影。
  • 同时,注意这个z轴的重采样要用最邻近插值,3D_full_resolution在重采样之后的中值图片形状是18x237x208.而线上的方法所述的这个nnUNet进行网络训练的patch_size是20x256x224,对用的能够适应GPU的batch_size是3。
  • 注意在3D_UNet中,卷积核是如何从1x3x3(2D的3x3卷积核对于本身是十分有效的)开始计算的。原因是因为,体素间隔的差距很大并且每一层有太大的差距,所以图像信息的聚合可能并不是那么有用(卷积核的z轴方向大小为1,即使是换成2,因为z轴方向上的体素大小不同,信息差距也大,这样卷没有意义)。类似地,平面内的池化也用1x2x2的卷积核,直到平面内轴和平面外轴的间距小于1/2,仅仅在间隔大小和池化的大小大致相当时,卷积核才变得各向同性。

3D_UNet_cascade

由于上一个3D_UNet已经覆盖了整个中值图像尺寸,因此UNet_cascade是没必要的。

Training and Postprocessing(训练和后处理)

  • 在训练过程中,为3D_UNet在平面内使用空间增强的手段(例如缩放和旋转),仅仅是为了消除不同的切片进行重采样以后造成的插值伪影。
  • 对于每个UNet配置都使用五折交叉验证,我们分别进行推理,以确保病例被合适地分层(因为每个病例有两张图片)。幸亏有交叉验证这种手段,让nnUNet可以在整个数据集上进行验证和结合。最后,着五个交叉验证被合在一起。nnUNet通过计算所有病例所有分割出来地前景地平均dice,得出一个标量值,从而来衡量模型的表现。详细的信息在这里不做赘述(附录F里有提到)。根据这个评估的方法,2D_UNet的得分是0.9165,3D_full_resolution的得分是0.9181,结合推理的得分是0.9228。因此,结合推理的方法将会用来进行预测测试集的效果。
  • 后处理在结合推理中进行了配置,去小分支算法对于分割右心房和左心腔十分有用。

C.2 LiTS

图C.2提供了nnU Net为此数据集自动生成的管道的摘要:

Dataset Description(数据描述)

LiTS也是2017的MICCAI的竞赛项目,并且提供了质量相当高的数据集https://competitions.codalab.org/competitions/17094. ,是用来分割肝脏和肝脏肿瘤的数据集。有131套CT用来训练,70套用来测试,同时测试的标签只有举办方知道。 中值图像尺寸为432x512x512,对应的体素间隔是1x0.77x0.77。

Dataset Description(强度归一化)

  • CT的每个体素的强度值是和每层切片的定量物理属性有关系的,因此我们期望得到的强度值是相对连续的。nnUNet将这个属性加以利用,所以采用了全局强度归一化的方法(与上一个ACDC相反)。
  • 最后,nnUNet将归一化以后的强度信息作为数据指纹的一部分:所有的样本中,属于任何前景(肝脏和肝脏瘤)的归一化后的强度值被收集起来,然后,这些强度值的均值和标准差,以及均值的0.5%和标准差的99.5%都会用来计算。随后,所有的图像会被归一化到0.5%和99.5%,之后减去全局均值再除以全局标准差。

2D_UNet

2D_UNet的目标间隔被设定为NAx0.77x0.77mm(通过所有训练案例中的中值体素间隔来确定)。因为2D_UNet仅仅在切片上进行操作,所以z轴不用管。对训练案例的重采样会导致一个NAx512x512的中值图像尺寸(NA说明这个轴没有进行重采样)。由于这个尺寸是中值尺寸,所以在训练集中的CT尺寸可能大于它也可能小于它。2D_UNet配置patch_size是512x512,batch_size为12。

3D_UNet

  • 3D_UNet的目标间隔被设定为1x0.77x0.77mm(通过所有训练案例中的中值体素间隔来确定)。因为中值间隔几乎是各向同性的,nnUNet在此不会使用ACDC中的10th_percentile的方法来确定z轴上的间隔。
  • 重采样的策略是由每张切片决定的:
  1. 如果该切片是各向同性的(间隔最大的轴的间隔 / 间隔最小的轴的间隔 < 3),就会用三阶样条插值对原始训练数据切片进行插值,然后用线性插值对数据切片对应的标签切片进行插值(对标签的插值,要在重采样之前将标签切片转换成独热编码,之后插值完了以后再转换成标签格式)。
  2. 如果该切片是各向异性的,nnUNet在z轴的重采样应该像ACDC那样做。(这里说明了一点:对于CT图像的3D_UNet来说,xyz的插值都要进行,如果一个切片是各向同性的,在三个轴上的插值算法都一样,均为三阶样条插值(data)和线性插值(seg),如果一个切片是各向异性的,xy仍然采取之前的策略,而z轴的插值就要采用ACDC的方法进行插值
  • 在重采样以后,中值图像尺寸为482x512x512。因为要在GPU允许的情况下尽可能给大patch_size,在这个大的patch_size情况下尽可能增大batch_size。因此3D_UNet的patch_size的大小为128x128x128,对应的batch_size为2(启发性规则限定下允许的最小值)。由于输入的patch基本上都有各向同性的间隔,所以所有的卷积核尺寸和下采样的步长都是各向同性的(3x3x3和2x2x2)。

3D_UNet_cascade

尽管nnUNet优先选择较大的patch,3D_full_resolution_UNet对于覆盖更多的上下文信息来说仍然太小了(仅仅覆盖了重采样后的中值图片尺寸的1/60),这可能会导致分类的错误,因为缩小的太严重了,比如说,这样就会很难区分脾脏和肝脏。nnUNet就是为了应对这种问题,通过首先用3D_UNet训练一个下采样的数据,然后提取出低分辨率的输出作为第二个UNet的输入。使用我们线上描述的步骤(比如方法4和图E.1 b ),low_resolution_3D_UNet的目标间隔被设定为2.47x1.9x1.9,会生成一个尺寸为195x207x207的中值图像。3D_UNet_low_resolution的patch为128x128x128,batch_size为2。注意这些配置和3D_UNet是完全一致的,但是其他对于其他数据集来说不一定是这样。如果3D_full_resolution_UNet的数据是各向异性的,那么nnUNet会优先对高分辨率的轴进行下采样,从而生成一个不同的网络结构、patch_size和batch_size。在3D_low_resolution_UNet进行完五折交叉验证之后,每次交叉验证的验证集的分割图像就会上采样至3D_full_resolution_UNet的目标间隔。而这个级联方式中的full_resolution_UNet(和一般的3D_full_resolution_UNet一样)就会被训练用于修正粗糙的分割图像,并且改正遇到的错误(通过把上采样分割图的独热编码和网络的输入联系起来)。

Training and Postprocessing(训练和后处理)

所有的网络配置都依赖于五折交叉验证,nnUNet会一次次地计算所有类别地前景的dice分数,由此生成一个标量,从而估计所该有的配置。基于这个评估方法,2D的score是0.7625,3D_full_resolution_UNet是0.8044,cascade的low_resolution的分数为0.7796而full_resolution的分数为0.8017,组合后的最好分数是0.8111。后处理会在组合模式的基础上进行,会通过对前景使用去小连接分支算法,通过这样的方法可以比较好的提升模型的表现。


D Details on nnU-Net’s Data Augmentation(数据增强的细节)

一般数据增强

训练期间应用了很多数据增强的手段,所有的数据增强都在CPU上进行计算。数据增强的“管道”使用了我们之前分享的一个数据增强包:batchgenerators。不同数据集之间的数据增强参数不变。
       采样的patch比刚开始的用于训练的patch_size要大,这导致在应用旋转和缩放时,在数据增强期间引入的边界值(这里是0)更少。所以,要在旋转和缩放的时候,将patch从中心开始抠图成最后的patch_size大小。为了确保原始数据的边界出现在最终的patch中,最开始的抠图部分可能会延伸到图像的边界外。
       空间内的增强(旋转、缩放、低分辨率模拟)被应用在3D_Unet的3D、2D_Unet的2D、或者带有各向异性patch_size的3D_UNet(patch_size的最长边比最小边大三倍)。
       为了增强生成patch的可变性,大多数的增强都因为一些参数而不同(取自好的某个范围之内)。比如,x ∼ U(a, b)就代表x是从a和b的均匀分布间进行取值。而且,所有的增强都是根据预先设定的概率随机地应用的。
 下面是nnUNet运用的数据增强方法(按照标出的顺序)

1. 旋转和缩放

  • 旋转和缩放的一起应用有助于加快计算的速度,这个方法将需要的数据插值的次数减少到1。使用缩放和旋转的概率各为0.2(只缩放的概率为0.16,只旋转的概率为0.16,两个都触发的概率为0.08)。
  • 旋转:如果是要处理各向同性的3D patch,应该让x、y、z三个轴分别在(-30,30)之间均匀随机取值。如果这个patch是各向异性的(或者2D)旋转的角度采样范围应为(-180,180)。如果2D的patch_size是各向异性的,角度应当在(-15,15)采样。
  • 缩放:缩放是通过将坐标与体素网格中的缩放因子相乘实现的。因此,比例因子小于1会产生“缩小”效果,而数值大于1会产生“放大”效果。对于所有的patch类型,尺度因子从U(0.7, 1.4)中采样。

2. 高斯加噪

将零中心的加性高斯噪声独立地添加到样本中的每个体素中。这个增加的概率为0.15。噪声的方差是从U(0, 0.1)提取的(注意,由于强度归一化,所有样本中的体素强度均值和单位方差都接近于零)。

3. 高斯模糊

每个样本使用高斯模糊的概率是0.2。但是如果在一个样本中应用了这个模糊,与之相关的模态的应用概率变为0.5(单一模态为0.1)。
高斯核的宽应当从每一个模态在(0.5,1.5)均匀随机采样。

4. 亮度处理

体素强度要以0.15的概率与在(0.7, 1.3)均匀随机采样的值相乘。

5. 对比度处理

体素强度以0.15的概率与在(0.65,1.5)均匀随机采样的值相乘,乘完之后把这个值裁剪到他们原始强度范围内。

6. 低像素仿真

这种增强以每个样本0.25和每个相关模态0.5的概率应用。触发的模态需要采用最近邻插值以U(1,2)向下采样,然后使用三次插值将其采样回原始大小。对于2D patch或各向异性3D patch,这种增强只应用于2D中,而使平面外轴(如果适用)保持其原始状态。

7. 伽马增强

此增强以0.15的概率应用。patch强度按其各自值范围的[0,1]因子进行缩放,然后,对每个体素应用非线性强度变换

体素强度随后将缩放回其原始值范围。在概率为0.15的情况下,此增强应用于在变换之前反转体素强度的情况

8. 镜像

patch的所有轴都按照0.5的概率进行镜像。

特别数据增强

对于UNet_cascade的full_resolution_UNet来说,额外对low_resolution_3D_UNet生成的mask采用下面的增强方法。注意这个mask是按独热编码进行保存的。

1. 二值操作

对所有的labels以0.4的概率进行这个二值操作,这个操作是从膨胀、腐蚀、开操作、闭操作中随机选取的。结构元素是一个半径为r ~ U(1,8)的球体。该操作以随机顺序应用于标签。因此,独热编码特性被保留。例如,一个标签的膨胀会导致膨胀区域的所有其他标签被移除。

2. 小连接分支移除

小于15% patch大小的连通分支以0.2的概率从独热编码中移除。


E Network Architecture Configuration(网络结构配置)

图E.1为在线方法中描述的架构配置迭代过程提供了直观的帮助

网络架构配置的工作流。

  1. a) 给定输入面片大小和相应体素间距的U-Net体系结构的配置。由于GPU内存消耗的不连续性(由于池操作数量和网络深度的变化),架构配置无法解析解决。
  2. b) U-Net级联的3D低分辨率U-Net配置。3 3D lowres U-Net的输入面片大小必须至少覆盖重新采样的TRANIG案例的中间形状的1/4,以确保充分的上下文信息。首先对高分辨率轴进行下采样,导致数据相对于全分辨率数据的纵横比可能不同。由于遵循此纵横比的补丁大小,低分辨率U-Net的网络架构可能不同于全分辨率U-Net。这需要为每次迭代重新配置网络体系结构,如a)所示。所有计算都基于内存消耗估计,因此计算时间很快(配置所有网络体系结构的时间为1秒以下)

G Using nnU-Net with limited compute resources(在有限的资源下使用nnUNet)

降低计算复杂度是驱动网络设计的关键动机之一。对于大多数用户和研究人员来说,运行由nnU-Net生成的所有配置应该是可管理的。然而,在计算资源极其稀缺的情况下,也有一些捷径可走。

G.1 减少网络训练的数目

nnUNet总共有四种网络类型:2D、3D_full_res、3D_lower_res、3D_cascade。每个进行五种交叉验证,就是共有20个模型要训练,每个模型都需要几天时间训练,所以必然会面对计算资源的匮乏。我们提出了两个策略去解决接下来的问题。

1.人工的选择UNet的网络模板配置

总的来说,3D_full_res表现出最好的效果。因此,这个配置是一个好的起点,并且能很简单的作为一个默认设置。使用者能够决定是否需要进行这么多个训练,只训练一个nnUNet的配置也是可行的,比如只用3D_full_res的五折交叉运算。
       要学会利用一些专业知识来大致估计你最适合的网络模板是什么。比如对于高度各向异性的图片,就很有可能最适合跑2D_Unet,但这也不是绝对的。对于一些非常大的图片,3D级联的方法就很有可能表现最好,因为包含了足够的上下文信息,但是这也只是在目标需要一个大的接受野时才成立。比如你需要检测神经突触这种结构,就只需要关注局部信息,这时候3D_full_res效果最好。

2.不要用五折交叉验证跑所有的模型

选一个可能不错的来跑五折交叉验证,但是对于级联的网络一定要用五折交叉验证,因为他会生成一些可靠的mask去输入下一个网络,而这个mask就是依赖五折交叉验证来得到的。

nnU-Net(Supplementary Information)相关推荐

  1. 机器学习特征筛选:互信息法(mutual information)

    机器学习特征筛选:互信息法(mutual information) 互信息法多为分类问题的分类变量的筛选方法 经典的互信息也是评价定性自变量对定性因变量的相关性的,为了处理定量数据,最大信息系数法被提 ...

  2. 软件LoadRunner 产品信息(product information)

    我用的虚拟机里边装的LR.关于产品信息(product information),产品名称(product name),组件名称(Component Name) 转载于:https://www.cnb ...

  3. 概率机器学习中的互信息(Mutual Information)

    1.Mutual Information概念 互信息是信息论中用以评价两个随机变量之间的依赖程度的一个变量 2.信息论的基础概念 信息量: 是对某个时间发生的概率的度量,通常来讲一个事件发生的概率越低 ...

  4. 第2章 系统信息(System Information)

    小区搜索过程之后,UE已经与小区取得下行同步,得到小区的PCI(Physical Cell ID)以及检测到系统帧的timing(即10ms timing).接着,UE需要获取到小区的系统信息(Sys ...

  5. 互信息(Mutual Information)

    本文根据以下参考资料进行整理: 1.维基百科:https://zh.wikipedia.org/wiki/%E4%BA%92%E4%BF%A1%E6%81%AF 2.新浪博客:http://blog. ...

  6. 互信息(Mutual Information)的介绍

    互信息,Mutual Information,缩写为MI,表示两个变量X与Y是否有关系,以及关系的强弱. 如果 (X, Y) ~ p(x, y), X, Y 之间的互信息 I(X; Y)定义为: No ...

  7. 互信息(Mutual Information)介绍

    在概率论和信息论中,两个随机变量的互信息(Mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度.不同于相关系数,互信息并不局限于实值随 ...

  8. 博弈论:完美信息(Perfect Information)与完全信息(Complete Information)

    完美(perfect)信息与完全(complete)信息 房地产开发博弈 博弈论基本概念 参考文献:<博弈论与信息经济学>-张维迎 房地产开发博弈 假定某地有A.B两个房地产开发商,他们都 ...

  9. Confluence 6 数据库表-系统信息(System information)

    2019独角兽企业重金招聘Python工程师标准>>> 这些表格有存储数据相关的状态和 Confluence 站点的相关配置信息. confversion 被用来在升级系统的时候确定 ...

最新文章

  1. 102. Binary Tree Level Order Traversal
  2. Go基础编程:作用域
  3. 深入浅出Android App耗电量统计
  4. element tree不刷新视图_不懂Linux Device Tree,被新人嘲笑之后,含泪写完
  5. flash可以编辑html文本吗,flash中怎么插入并编辑文字字体样式?
  6. 地图上绘制任意角度的椭圆_地图上的总椭圆
  7. 前端学习(1412):多人管理32修改
  8. istio可以做什么_什么是Istio?
  9. SiteMesh2-示例工程
  10. 异构计算:PC的“动车组”
  11. 在macOS Big Sur上如何重置蓝牙?
  12. AndroidStudio配置gradle,让App自动签名
  13. vscode-JS代码段(JavaScript Snippet Pack)
  14. git idea提交代码的步骤
  15. java linux 时间戳转时间_SpringMVC全局参数转换——linux时间戳转换LocalDateTime
  16. win10 svn图标不显示
  17. 百度蜘蛛的抓取方式有哪些
  18. go 学习笔记之值得特别关注的基础语法有哪些
  19. MTF 曲线图应该怎么看?
  20. Spring框架(容器)--简介(实现原理、核心模块、组成部分)

热门文章

  1. Colab如何解压rar和zip文件
  2. ACL过滤数据流量案例
  3. Unity3D游戏开发之使用AssetBundle和Xml实现场景的动态加载
  4. C1考核--任务01
  5. DataFrame.apply用法
  6. 微信账单页面明细格式化价格字符
  7. java开发图灵机器人
  8. 2022黑马程序员-前端学习第一阶段(Day01-HTML的认知)
  9. strtoul()函数
  10. python 类型检查工具_pyre check-用于符合PEP 484的Python的高性能类型检查器