一、摘要

作者将一个图像(image patch)看做是一个保留了原始图像结构的二阶张量,然后设计了两个图来描绘目标和背景所在的张量样本中固有的局部几何结构,从而构建一个判别式嵌入空间。图嵌入可以在降低张量维度的同时保留着图的结构。此外,作者提出了两种思路(?)用来寻找原始张量样本到基于张量的图嵌入空间的变换矩阵。为了能够在嵌入空间编码出更多的判别信息,作者提出了基于迁移学习的的半监督策略,用以交替迭代修正嵌入空间,使得其之前获得的判别信息迁移过来。算法应用到目标追踪中能很好地捕获目标的外观特征,通过粒子滤波估计最优目标状态。最后,作者在CVPR2013基准数据库上证明了算法在追踪领域上的高效性。

注:半监督学习的基本思想是利用数据分布上的模型假设建立学习器对未标注样本进行标注。论文中使用从当前帧收集到的很多未标签图像块,来修正判别式嵌入空间。

二、相关工作

图像的向量表示

将图像patch拉伸成为向量,破坏了图像固有的二维结构。

图像的特征表示

尽管提取的特征能够很好用于判别式学习方法中,仍然会有很多有用的信息会被特征所遗漏。

图像的矩阵表示

基于张量的子空间学习可以被用到目标追踪中[11][13][24][25][26],其中一些基于张量的追踪算法[13][24][25]在k模展开矩阵中运用PCA降维,[11][26]在k模展开矩阵上运用协方差矩阵特征值分解。这些算法存在如下局限:

  • 子空间学习退化问题;
  • 无法完整检测到收集到的图像patch在张量形式下固有的局部几何和判别信息;
  • 忽略了背景的影响,当背景和目标相似时会混淆。

注:二维线性判别分析(2DLDA)可以用来检测二阶张量样本的判别结构,然而,还是不能够检测出样本固有的局部集合结构,因为2DLDA没有考虑到同类样本的变化。
用于降维的图嵌入提供了解决上述局限的新框架

三、文章的贡献

基于张量的图嵌入半监督学习算法框架如下图所示:

  • 首先,将图像patch看做一个二阶张量。在历史帧中收集已标注的目标和背景样本,在当前帧中收集未标注样本;
  • 将这些张量样本喂给作者提出的图嵌入半监督学习算法,训练出一个基于张量的图嵌入空间;
  • 然后,在粒子滤波的追踪框架内实现目标追踪;
  • 最后,将当前帧的追踪结果用来更新已标注的样本集合。

在该算法中,作者设计了:

  • 一个固有图用来表示目标张量样本之间、背景张量样本之间的关系;
  • 一个惩罚图用来分离目标张量样本和背景张量样本;
  • 图嵌入降维框架用来寻找原始张量样本到基于张量的图嵌入空间的变换矩阵。

由于子空间学习退化问题的存在,该嵌入可能不能包含足够的判别信息用于追踪。为了编码出更多判别信息,作者提出,通过用半监督学习的方式,使用未标注的张量样本来修正基于张量的判别式嵌入空间。
在判别式追踪中,已有的基于矩阵的方法通过给目标函数增加约束项来修正判别式空间。这种方法很难直接在基于二阶张量的图嵌入学习(需要两个变换矩阵)中使用,因为很难定义一个合适的正则化器来处理两个相关的变换矩阵。
作者在文章中提出了在交替迭代下基于迁移学习的半监督改进方法。在每次迭代中,在前一个迭代中最可能被误判的未标记张量样本是根据它们与在早期的跟踪阶段收集的标记样本的相似程度而选择的。修正后的类标签被分配给所选的未标记的样本,并用于学习新的判别嵌入空间,在新嵌入空间中关于目标早期形变的判别信息得到迁移。从不同的迭代中学习的嵌入空间被线性组合成终极版嵌入空间。
文章的贡献有以下3点:

  • 提出了一个基于二阶张量的图嵌入学习算法,使得张量样本固有的局部几何的和判别结构得到很好的表示;
  • 提出了一个基于迁移学习的半监督学习方法,用来修正二阶张量图嵌入空间;
  • 将提出的基于二阶张量的半监督图嵌入学习方法整合到贝叶斯推理框架中,构成了一个追踪器。

四、基于张量的图嵌入

4.1 张量操作

张量的内积:

张量的k模展开与矩阵M的积:
<=>C(k)=MA(k)C(k)=MA(k)C_{(k)}=MA_{(k)}

4.2 基于张量的图嵌入

图嵌入算法使用无向有权图来描述数据集的流行结构,在保持图的邻接关系的前提下,寻找图在低维空间中的表示,目前很多流行学习算法都可以统一到这个框架下。
令{Xi∈RI1×I2×...×In}i=1,2,...,N{Xi∈RI1×I2×...×In}i=1,2,...,N\{\mathcal{X}_i\in R^{I_1\times I_2 \times ... \times I_n}\}_{i=1,2,...,N}表示N个训练样本集合,每个样本是一个n阶张量。
固有图GG\mathcal{G}和惩罚图GpGp\mathcal{G}^p用来描述张量样本的局部几何和判别结构。
令W、WpW、WpW、W^p分别表示G、GpG、Gp\mathcal{G}、\mathcal{G}^p的边权重矩阵,

  • WijWijW_{ij}衡量顶点Xi、XjXi、Xj\mathcal{X_i}、\mathcal{X_j}之间的相似性,固有图描述了样本的期望统计或几何性质(?);
  • WpijWijpW_{ij}^p衡量顶点Xi、XjXi、Xj\mathcal{X_i}、\mathcal{X_j}之间的差异性,惩罚图描述了被抑制的统计或几何属性(?)

基于张量的图嵌入的任务是寻找一个最优的低维张量表示固有图中的每个顶点。这样一个低维张量可以很好地描述顶点间的相似性特征,使得原始的固有图的特征被保留下来,同时惩罚图所识别的特征也被抑制了
令{Mk∈Rlk×Ik}k=1,2,...,n,lk<Ik{Mk∈Rlk×Ik}k=1,2,...,n,lk<Ik\{M^k\in R^{l_k \times I_k}\}_{k=1,2,...,n,l_k表示从样本{Xi}i=1,2,...,N{Xi}i=1,2,...,N\{\mathcal{X}_i\}_{i=1,2,...,N}到N个顶点{Yi∈Rl1×l2×...×ln}i=1,2,...,N{Yi∈Rl1×l2×...×ln}i=1,2,...,N\{\mathcal{Y}_i\in R^{l_1\times l_2 \times ... \times l_n}\}_{i=1,2,...,N}的n个变换矩阵集合。换句话说,Yi=Xi×1M1×2M2...×nMnYi=Xi×1M1×2M2...×nMn\mathcal{Y_i}=\mathcal{X_i}\times_1M^1\times_2M^2...\times_nM^n。

【注】:Xi∈RI1×I2×...×In→Yi∈Rl1×l2×...×lnXi∈RI1×I2×...×In→Yi∈Rl1×l2×...×ln\mathcal{X}_i\in R^{I_1\times I_2 \times ... \times I_n} \to \mathcal{Y}_i\in R^{l_1\times l_2 \times ... \times l_n},都是n阶张量,但是每一阶的维度降低了!

通过求解下面的优化问题可以求出一个能保留着图结构的最优变换矩阵:

其中,d是常数。注意目标函数里是WijWijW_{ij},约束条件里是WpijWijpW^p_{ij},这样一个低维张量YY\mathcal Y可以很好地描述顶点间的相似性特征,使得原始的固有图的特征被保留下来,同时惩罚图所识别的特征也被抑制了

4.3 基于二阶张量的图嵌入学习

在很多实际应用中,诸如判别式追踪,样本可以用一个二阶张量形式{Xi∈RI1×I2}i=1,2,...,N{Xi∈RI1×I2}i=1,2,...,N\{\mathcal{X_i}\in R^{I_1\times I_2}\}_{i=1,2,...,N}表示,并且样本集包含了已标注训练样本和未标注样本。未标注样本通常会被分类器误判。令“+1”表示标注的正样本,“-1”表示标注的负样本,“+2”表示伪正样本,“-2”表示伪负样本。于是,每个训练样本的类标为Li∈{−2,−1,+1,+2}Li∈{−2,−1,+1,+2}L_i\in \{-2,-1,+1,+2\},令nc(c∈{−2,−1,+1,+2})nc(c∈{−2,−1,+1,+2})n_c(c\in\{-2,-1,+1,+2\})表示每一类的样本数,则有∑+2c=−2nc=N∑c=−2+2nc=N\sum_{c=-2}^{+2}n_c=N。
在图嵌入框架中固有图描述了类内紧密性,惩罚图描述了类间可分性。样本的分布,例如跟踪时的背景样本,是无序的、不规则的和多模式的。注意到,用于定义图形结构的样本之间的全局连接,对于分布广泛的类来说可能不是有效的。因此难以用它来最大化类间散度。相反,用于定义图形结构的样本之间的局部连接更适合保存分散的样本分布(?)。文章设计了两种图,即G、GpG、Gp\mathcal G、\mathcal G^p,对张量样本的局部几何和判别结构进行建模。

4.3.1 图结构的定义

记AijAijA_{ij}表示样本i和样本j之间的密切度。

  • 当Li>0,Lj>0Li>0,Lj>0L_i>0,L_j>0时,即样本i、样本j是正样本或者伪正样本,
    Aij=exp(−||Xi−Xj||2σiσj)Aij=exp(−||Xi−Xj||2σiσj)A_{ij}=exp(-\frac{||\mathcal{X_i}-\mathcal{X_j}||^2}{\sigma_i\sigma_j})
    其中,σi=||Xi−X(k)j||σi=||Xi−Xj(k)||\sigma_i=||\mathcal{X_i}-\mathcal{X_j^{(k)}}||,X(k)jXj(k)\mathcal{X}_j^{(k)}是XiXi\mathcal{X_i}在集合{Xi}Nj=n−2+n−1+1{Xi}j=n−2+n−1+1N\{\mathcal{X_i}\}^N_{j=n_{-2}+n_{-1}+1}中的k近邻(?)
  • 当Li<0,Lj<0Li<0,Lj<0L_i时,即样本i、样本j是负样本或者伪负样本,

    其中,N+k(i)Nk+(i)N^+_k(i)是XiXi\mathcal{X_i}在集合{Xi}n−2+n−1+1j=1{Xi}j=1n−2+n−1+1\{\mathcal{X_i}\}_{j=1}^{n_{-2}+n_{-1}+1}中的k近邻的下标集合。
    σi=||Xi−X(k)j||σi=||Xi−Xj(k)||\sigma_i=||\mathcal{X_i}-\mathcal{X_j^{(k)}}||,X(k)jXj(k)\mathcal{X}_j^{(k)}是XiXi\mathcal{X_i}在集合{Xi}n−2+n−1+1j=1{Xi}j=1n−2+n−1+1\{\mathcal{X_i}\}_{j=1}^{n_{-2}+n_{-1}+1}中的k近邻。

有了样本间密切度AijAijA_{ij}的定义,张量样本的局部空间关系则可以被包含在图结构中。
固有图GG\mathcal{G}的边权重如下定义:

  • 当LiLj>0LiLj>0L_iL_j>0时,WijWijW_{ij}与AijAijA_{ij}成正比。
  • 当LiLj<0LiLj<0L_iL_j时,他们之间不存在连接,所以权重为0。

惩罚图GpGp\mathcal{G^p}的边权重如下定义:

- 当LiLj>0LiLj>0L_iL_j>0时,WijWijW_{ij}为负数。
- 当LiLj<0LiLj<0L_iL_j时,WijWijW_{ij}为正数。

由于惩罚图是用来将目标从背景中分离出来,所以作者赋予不同类标的两个样本间一个正的权重,从而增加目标样本和背景样本的可分性;赋予同一类标的两个样本间一个负的权重,增加它们的不可分性

4.3.2 解决方案

4.2节中,Yi=Xi×1M1×2M2...×nMnYi=Xi×1M1×2M2...×nMn\mathcal{Y_i}=\mathcal{X_i}\times_1M^1\times_2M^2...\times_nM^n;当n=2时,Yi=Xi×1M1×2M2=UTXiVYi=Xi×1M1×2M2=UTXiV\mathcal{Y_i}=\mathcal{X_i}\times_1M^1\times_2M^2=U^T\mathcal{X_i}V(详见下面推导),
即4.2节的优化问题在二阶张量下可以写为:

4.3.3 算法

交替迭代求解U、V


正负样本的权值中心点定义为:

最后,分类器的分类结果如下:
h(X)=sign(f(X))h(X)=sign(f(X))\mathcal{h(X)}=sign(f(\mathcal{X}))

五、基于迁移学习的半监督改进方法

作者构建了一种半监督的方法,利用未标注的数据来修正学习的判别嵌入空间。

  • 与其他判别追踪器一样,标记与追踪结果对应的图像patch为正样本,其他为负样本。
  • 然后,在上述第4节中所描述的监督方法中,使用这些标记为正或负的样本来学习判别嵌入空间。
  • 进一步,选择一些有用的未标记的样本,以半监督的方式修正嵌入空间。

作者引入迁移学习到半监督学习中。在跟踪应用程序中,

  • 如果样本集经常更新,那么就可以对形变反应更快。然而在更新中,如果目标一直在发生大规模形变,就会出现跟踪漂移问题,跟踪器稳定性下降。
  • 如果样本集缓慢更新,跟踪器就不会轻易受到错误追踪的影响,并且对漂移问题会更加鲁棒,但是它的适应性降低了。

为了保持跟踪的适应性和稳定性,作者构建了两个样本集:

  • 一个是“目标集”,目标集中的样本称为目标数据,它只包含从最近几帧中收集的目标和背景样本。目标集更新速度很快,以确保它能够适应形变。
  • 一个是“辅助集”,辅助集中的样本称为源数据,它由在早期跟踪阶段收集的样本组成。 辅助集更新速度很慢,以确保跟踪的稳定性和以及对漂移问题的鲁棒性。

环境变化会引起样本分布发生变化。所以,源数据的分布可能与目标数据的分布有很大的不同。如何将源域中的信息迁移到目标域中呢?

  • 首先,我们只使用目标集中的样本来学习初始的图嵌入张量空间,它保留了最近几帧中目标形变的判别信息。
  • 然后,使用辅助集选择未标记的样本,这些样本很可能被当前已学习的图嵌入空间错误地分类。它们的标签是根据它们与辅助集的样本的相似度确定的。
  • 最后,使用上一步所选的样本交替迭代地修正图嵌入张量子空间。

通过这种方式,关于目标在早期形变的判别信息被迁移到图嵌入空间中。这种基于迁移学习的半监督改进方法使得模型对跟踪漂移问题更加鲁棒。
通过这种方式,相似性高的样本通常就会有相同的类标。

  • 作者之所以不使用投影张量差来测量张量样本之间的相似性。这是因为在迭代的半监督的改进过程中最初的投影矩阵不够精确,无法将张量样本投影到一个低维度空间中。
  • 作者之所以不使用类似AijAijA_{ij}的基于两阶张量距离的相似性度量,这是因为与图嵌入学习过程相比较,在这个过程中,只需要计算最近样本之间的距离。考虑到追踪近期的环境和早期的环境可能很不一样,一个简单的基于二阶张量距离的相似性度量不够有效测量目标集和辅助集中的样品距离。
  • 于是,作者提出了一个更精确的基于分块的协方差矩阵描述符来测量这些样本之间的相似性。在描述符中,样本图像块中像素之间的局部关系被建模。将图像块分割成非重叠块可以将更多的局部空间信息合并到相似度度量中。协方差距离的局部信息可以补充基于张量的图嵌入的整体特性。

本节,首先描述了基于分块的相似性估计,然后是基于迁移学习的半监督改进方法。

5.1 基于分块的相似性估计

在每一个样本图像patch中,记每个像素的特征向量为:

f=(x,y,ϕ,|ϕx|,|ϕy|,(ϕx)2+(ϕy)2−−−−−−−−−−−√)f=(x,y,ϕ,|ϕx|,|ϕy|,(ϕx)2+(ϕy)2)

f=(x,y,\phi,|\phi_x|,|\phi_y|,\sqrt{(\phi_x)^2+(\phi_y)^2}\quad)
其中,(x,y)是像素坐标, ϕϕ\phi是该像素的亮度, ϕx、ϕyϕx、ϕy\phi_x、\phi_y是亮度的一阶导数。
作者将每个图像patch划分为mxn块block,对于块(p,q)可以用一个协方差矩阵表示如下:

Cpq=1Ω−1∑k=1Ω(fk−μ)(fk−μ)TCpq=1Ω−1∑k=1Ω(fk−μ)(fk−μ)T

C^{pq}=\frac{1}{\Omega-1}\sum_{k=1}^{\Omega }(f_k-\mu)(f_k-\mu)^T

p=1,2,...,n,q=1,2,...,mp=1,2,...,n,q=1,2,...,m

p=1,2,...,n,q=1,2,...,m
其中, ΩΩ\Omega是块(p,q)中的像素个数, μμ\mu是特征向量 {fk}k=1,2,...,Ω{fk}k=1,2,...,Ω\{f_k\}_{k=1,2,...,\Omega}的均值。
给定对称正定矩阵 CpqCpqC^{pq},对矩阵进行奇异值分解(SVD)并且对数化,得

其中,E是正交矩阵, {vi}i=1,2,...,6{vi}i=1,2,...,6\{v_i\}_{i=1,2,...,6}是矩阵 CpqCpqC^{pq}的特征值。
由于 log(Cpq)log(Cpq)log(C_{pq})的向量空间结构,它可以展开成一个向量 opqopqo_{pq}。并且由于它是一个对称矩阵, opqopqo_{pq}只需要存储 log(Cpq)log(Cpq)log(C_{pq})的上三角矩阵即可。 log(Cpq)log(Cpq)log(C_{pq})中对角线外的元素都乘以 2–√2\sqrt2,以确保任意两个对称矩阵的距离等于对应的展开向量间的距离。
则第i个patch的块(p,q)和第j个patch的块(p,q)之间的相似度的计算公式为:

考虑到靠近图像patch中心的块信息量更大,而边界上的块则容易受到图像patch外部的影响。因此,作者使用空间全局高斯滤波来衡量每一块的权重。

有了不同patch块间相似度的定义以及每一块的权重,则样本 XiXi\mathcal{X_i}和样本 XjXj\mathcal{X_j}之间的相似度可以定义为:

5.2 基于迁移学习的半监督改进方法

记以下三个数据集的定义:

  • {(Xi,Li)}NAi=1{(Xi,Li)}i=1NA\{(\mathcal X_i,L_i)\}_{i=1}^{N_A}是张量样本的辅助集,NANAN_A是辅助集样本数,Li∈{−1,+1}Li∈{−1,+1}L_i\in \{-1,+1\}是对于样本的类标
  • {(Xi,Li)}NA+NTi=NA+1{(Xi,Li)}i=NA+1NA+NT\{(\mathcal X_i,L_i)\}_{i=N_A+1}^{N_A+N_T}是张量样本的目标集,NTNTN_T是目标集样本数
  • {(Xj)}NUj=1{(Xj)}j=1NU\{(\mathcal X_j)\}_{j=1}^{N_U}是未标注样本集,NUNUN_U是未标注样本数

张量分类器H(X):RI1×I2→RH(X):RI1×I2→RH(\mathcal{X}):R^{I_1\times I_2}\to R是由前T^T^\hat{T}次迭代的张量分类器线性组合而成的:

其中,

  • h0(X):RI1×I2→{−1,+1}h0(X):RI1×I2→{−1,+1}h^{0}(\mathcal{X}):R^{I_1\times I_2}\to \{-1,+1\}是只用目标集中的已标注数据通过上文4.3.3的基于张量的图嵌入学习算法训练得到的张量分类器;
  • ht(X):RI1×I2→{−1,+1}ht(X):RI1×I2→{−1,+1}h^{t}(\mathcal{X}):R^{I_1\times I_2}\to \{-1,+1\}是在第t次迭代中结合目标集中的已标注数据和错误标注的数通过基于张量的图嵌入学习算法训练得到的张量分类器;

在每一次迭代中,如何求解h(t)(X)、αth(t)(X)、αth^{(t)}(\mathcal{X})、\alpha_t呢?在第T^+1T^+1\hat T+1
次迭代中,优化问题如下:

其中,

  • 目标函数的第一项是衡量未标注样本和辅助集中已标注样本之间的不一致性;
  • 目标函数的第二项是衡量未标注样本之间的不一致性;
  • ηη\eta是连接权重,取值为NANUNANU\frac{N_A}{N_U}
  • 第一项和第二项其实形式很相似,目标函数可以改写为如下形式:
  • 参考文献[16]提出,只有当max|Pj−Qj||Pj−Qj||P_j-Q_j|对应的未标注样本的分类预测结果为h(Xj)=sign(Pj−Qj)h(Xj)=sign(Pj−Qj)h(\mathcal X_j)=sign(P_j-Q_j)时F取得最小值。
  • 对F求导,可得αα\alpha:

基于迁移学习的半监督改进算法流程


这里解释一下step5为什么要寻找max|Pj−Qj||Pj−Qj||P_j-Q_j|对应的样本。
如果一个未标注的样本XjXj\mathcal X_j和辅助集中的一个正样本高度相似,但是却被当前的图嵌入张量分类器错误预测为负样本,那么这个未标注样本对应的PjPjP_j会很大,QjQjQ_j会很小。将这个样本选择出来,赋予类标为2∗sign(Pj−Qj)2∗sign(Pj−Qj)2*sign(P_j-Q_j)。
并且,选择|Pj−Qj||Pj−Qj||P_j-Q_j|的前几个较大值用来改进最终分类器H(X)H(X)H\mathcal {(X)}。这些被选择的未标记的样本可以帮助基于张量的图嵌入空间在早期对判别信息进行编码,以补偿丢失的判别信息。

5.3 视觉追踪

作者将上述基于迁移学习的半监督基于张量的图嵌入学习算法应用到目标追踪中。算法流程如下:



追踪器的在线更新主要是更新目标集和辅助集的样本。

  • 当前帧的前几帧的追踪结果作为目标集的正样本,这些样本的方差主要来自于目标不断的形变。负样本则从目标周边区域用密集采样的方法进行提取。
  • 辅助集中已标注的样本则是从早期的视频帧中提取,文中是每隔几帧就提取一个正样本和几个负样本

用一个仿射参数向量ηη\eta表示目标的状态。在粒子滤波中,用高斯分布G(ηt−1,∑)G(ηt−1,∑)G(\eta_{t-1},\sum)来模拟与动态模型相对应的状态迁移分布。高斯分布的均值ηt−1ηt−1\eta_{t-1}是从前t-1帧中估计得到的,协方差矩阵∑∑\sum则是经验值。当前帧t中的粒子是从状态迁移分布中抽取出来的,对应H(X)H(X)H\mathcal{(X)},在粒子滤波中每个粒子的权重定义如下,并且通过极大似然估计(MAP)计算当前帧的追踪结果:

目标追踪论文之狼吞虎咽(5):基于张量的图嵌入半监督学习及其在判别式目标追踪的应用相关推荐

  1. 【论文速递】基于改进层次分析法与熵权法的目标选择模型

    [论文原文]:基于改进层次分析法与熵权法的目标选择模型 作者信息: 张指辉,张毅,李健宁 获取地址:https://kns.cnki.net/kcms2/article/abstract?v=3uoq ...

  2. [论文阅读] (ASONAM2019) Meta-GNN: 属性异构网络中用于半监督学习的元图神经网络

    论文标题:Meta-GNN:Metagraph Neural Network for Semi-supervised learning in Attributed Heterogeneous Info ...

  3. 3D目标检测论文阅读多角度解析

    3D目标检测论文阅读多角度解析 一.前言 CNN(convolutional neural network)在目标检测中大放异彩,R-CNN系列,YOLO,SSD各类优秀的方法层出不穷在2D图像的目标 ...

  4. AAAI 2020 开源论文 | 一种针对图嵌入模型的受限黑盒对抗攻击框架

    AAAI(人工智能促进协会年会)是人工智能领域的顶级国际会议之一.今年的 AAAI 2020 是第 34 届,于 2 月 7 日至 12 日在美国纽约举行.今年,第 3 次参会的腾讯 AI Lab 共 ...

  5. 机器学习教程 之 半监督学习 基于图正则项的半监督极限学习机

    半监督学习是指在模型训练阶段同时利用有标签数据和无标签数据.我之前介绍过的半监督学习方法包括 基于分歧的半监督学习方法 机器学习教程 之 半监督学习 Tri-training方法 (论文.数据集.代码 ...

  6. 基于深度学习的目标检测论文综述Paper Reading:A Survey of Deep Learning-based Object Detection(中文)

    摘要 介绍了文章的大致思路和结构: 1.介绍,经典的目标检测算法,数据集 2.分析比对,各种目标检测算法,包括一阶段和两阶段的 3.介绍,传统和新的应用,以及一些目标检测的其他分支 4.讨论,用目前这 ...

  7. CVPR2018论文看点:基于度量学习分类与少镜头目标检测

    CVPR2018论文看点:基于度量学习分类与少镜头目标检测 简介 本文链接地址:https://arxiv.org/pdf/1806.04728.pdf 距离度量学习(DML)已成功地应用于目标分类, ...

  8. 【论文速读】基于图像的伪激光雷达三维目标检测

    点云PCL免费知识星球,点云论文速读. 标题:End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection 作者:Rui Qian, Divy ...

  9. 论文浅尝 | TuckER:基于张量分解的知识图谱补全

    笔记整理:孙泽群,南京大学计算机科学与技术系,博士研究生. 论文链接:https://arxiv.org/abs/1901.09590   背景 知识图谱是图结构的数据库,以三元组(es, r, eo ...

  10. 动态分区分配算法代码_【代码】巩敦卫等TEVC论文:基于区间相似度分析的协同动态区间多目标进化优化算法...

    分享代码:巩敦卫等TEVC论文:基于区间相似度分析的协同动态区间多目标进化优化算法. 说明:该代码基于Matlab2012a及Intlab5.5编写,对应文献:"Dunwei Gong, B ...

最新文章

  1. python 正则表达式re常用操作符 使用方法 怎么用re正则表达式表示一个IP地址:0-255
  2. 对一条常用命令(netstat结合awk统计TCP连接数)的理解
  3. kafka 重新分配节点_Kafka控制器-分区重分配
  4. 关于“工作组管理员”
  5. html5 blob video 下载
  6. 机器学习-预测之BP神经网络模型原理及实战
  7. html js制作地图,前端使用D3.js制作地图
  8. 23位子网掩码是多少_无敌子网掩码(IP地址)计算方法(完全心算法)
  9. 图片双面打印顺序混乱_打印,那些你没有注意的小细节
  10. STM32单片机介绍2
  11. C++ 解决多对一问题
  12. 变电站无线测温系统的特点与应用
  13. 注册微信公众平台测试账号
  14. windows下efi编译环境配置(EDK2)
  15. 抖音 根据 phone_number 找到 dy号和uid
  16. PCI GXL系统测试报告1(支持混合传感器)
  17. 重磅!ChatGPT 网页版来啦!响应速度超快!
  18. 美容美发管理系统方案
  19. 网络黑道常用之拼音缩写用语前十名
  20. 基于NGB的数字电视条件接收系统设计与实现

热门文章

  1. APICloud连接夜神模拟器--博客园老牛大讲堂
  2. 在屏幕中间分别显示绿色、绿低红色、白底蓝色的字符串'welcome to masm!'
  3. mysql系统调试文字说明_mysql的配置说明
  4. mac启动rabbitmq_从0到1学习Flink—— Flink 读取 Kafka 数据写入到 RabbitMQ
  5. 为什么计算机桌面显示器,电脑显示屏不显示是怎么回事 电脑显示屏不显示如何解决【详细介绍】...
  6. c语言中宏名的作用时段,C语言中的宏定义!
  7. axios拦截器_Axios源码解析 —— 一个小而美的HttpClient
  8. 【PAT】A-1076:Forwards on Weibo(有向图的BFS遍历)
  9. 路由器总是有信号无网络连接到服务器,路由器信号满格但是没有网络怎么办
  10. 风之大陆互通服务器账号,风之大陆有几个服务器?服务器互通吗?