摘要

  对于单一隐层ReLU神经网络,我们展示在每个可微区间内都是全局极小值。这些局部极小是否唯一可微,取决于数据,隐藏神经元的激活模式,网络大小。我们给出一个是否局部极小值存在它们的定义的区域内的标准,还有它们的位置和损失值。进一步,我们给出鞍点和不可微局部极小存在的充要条件。最后,我们计算高斯输入数据和平行权重向量陷入局部极小的概率,并证明当权重位于数据不太缺乏的区域时,该概率是指数消失的。这也许可以解释为什么在训练深度ReLU神经网络时,基于梯度的局部搜索方法通常不会陷入局部极小值。

1、引言

  深度学习中最大的谜团之一是尽管损失函数具有高度非凸性,但基于局部搜索的优化方法(如梯度下降法)在实践中仍然经常成功。了解损失函数的全局情况,特别是局部极小值和鞍点是否存在,以及它们的数量和位置(如果存在的话),将有助于解决这个难题。在此基础上,可以设计出对初始权值不敏感的搜索算法,保证有效地避开所有的局部极值和鞍点。

  结果表明,对于某些特定类型的网络,包括深度线性网络、具有二次激活的单隐层网络、非常宽的网络和具有特殊类型额外神经元的网络(相关工作参见1.1小节),不存在糟糕的局部极小值。换句话说,对于这些网络来说,所有的局部最小值都是全局的,并且没有陷入糟糕的局部最小值的机会。然而,通常情况下,ReLU网络在实践中应用并不广泛。由于ReLU激活所引入的非光滑性,将ReLU网络的权值空间分为可微区域和不可微区域。对于任何尺寸和任何输入的ReLU网络,不可微局部极小值的存在需要什么条件,以及存在局部极小值的概率在权值空间中如何变化,这在理论上是不清楚的。另一方面,尽管有关于逃逸鞍点的研究,但对于ReLU网络的鞍点的分析探索,包括鞍点存在的条件和位置,在很大程度上仍然是缺失的。

  本文试图了解单隐层ReLU网络的全局损失情况,以期对一般深层ReLU网络的理解有所启发。更具体地说,对于任何规模的单隐层ReLU网络(不仅仅是网络规模远大于样本数量的参数化情况),我们在本文中做出了以下贡献。

  • 我们证明了在每一个可微区域内,所有局部极小值都是全局最小值(在每个可微区域内都不存在糟糕的局部极值)。我们证明局部极小值可以是唯一的,也可以是连续的,这取决于数据、隐藏层神经元的激活模式和网络大小。我们首先求出每个可微区域的局部极小点的位置。然后我们给出标准来测试它们是否真的在它们的定义区域内。
  • 我们给出了鞍点存在的充要条件,给出了位于可微区域边界上的不可微局部极小值,以及它们存在的位置。
  • 我们计算了高斯输入数据和并行权向量存在的真实局部极小值的概率,并证明当权值距离数据分布峰值不远时,该极小值是指数消失的。

  本文安排如下。第1.1节是相关工作。第2节给出了初步的介绍,并描述了单隐藏层ReLU网络模型。在第3节中,我们证明了对于可微区域,所有的局部极小值都是全局的。第4节给出了真正可微局部极小值存在的条件及其位置,并用一个简单的例子说明了局部极小值的单点和连续情况。我们在第5节中给出了鞍点存在的充要条件。在第6节中给出了不可微局部极小点的充要条件。在第7节中,我们计算了高斯输入达到局部极小值的概率,并通过实验演示了这个概率在权空间中的变化。最后,对本文进行了总结,并指出了今后的研究方向。关于引理和定理的详细证明将放到附录部分。

1.1 相关工作

  损失形状(损失景观) 矩阵补全和张量分解,如Ge等(2016)是两个未知矩阵乘积的学习模型,已经证明,对于这样的模型,所有的局部极小值都是全局的。根据Kawaguchi(2016)的研究,深度线性网络消除了多层感知中每个神经元的非线性激活函数,也没有虚假的局部极小值;陆和川口(2017);Laurent & von Brecht (2018a);Yun等人(2018);Nouiehed & Razaviyayn (2018);张(2019)。Hardt & Ma(2017)的研究表明,深度线性残差网络没有虚假的局部最优。Choromanska等人(2015)使用统计物理中的自旋玻璃模型来分析景观,简化了深度神经网络的非线性本质。

  对于二次激活的单隐层超参数化网络,Soltanolkotabi等(2019);Du & Lee(2018)证明了所有局部极小值都是全局的。对于单隐藏层ReLU网络,Soudry & Carmon(2016)给出了可微局部极小值损失为零的条件,从而成为全局极小值。Laurent & von Brecht (2018b)证明了具有铰链损失的ReLU网络只能有不可微的局部极小值,并给出了线性可分数据存在的条件。Safran和Shamir(2016)的研究表明,对于参数化的单隐层ReLU网络,初始化的概率很高,损失也很小。Soudry & Hoffer(2017)表明,给定标准高斯输入数据,与包含全局极小值的可微区域相比,包含次优可微局部极小值的可微区域的体积呈指数消失。

  文丘里等人(2018)探索了无伪谷超宽网络;Nguyen & Hein (2019);Li等(2018a);Nguyen等人(2019年);丁等人(2019)。梁等(2018b,a);Kawaguchi和Kaelbling(2019)的研究表明,通过在快捷连接中添加单层网络甚至单个特殊神经元,每个局部最小值都变成了全局最小值。Ge等(2017);高等(2018);Feizi等人(2017)设计了新的损失函数或特殊网络,使所有局部极小值都是全局的。沙米尔(2018);Kawaguchi和Bengio(2018)证明了具有非线性的深度在一类ResNets不产生坏的局部极小值,因为所有局部极小值并不比相应的浅线性预测器的全局极小值差。彭宁顿和沃拉(2018);Pennington & Bahri(2017)利用随机矩阵理论研究了损失函数的海森斯谱,它表征了静止点附近的景观。Mei等人(2016);Zhou & Feng(2018)研究了预期损失的景观。

  鞍点 Dauphin等(2014)认为基于局部搜索的优化方法的一个主要困难来源是鞍点的扩散。Yun等人(2018)给出了区分深度线性网络的鞍点和局部极小值的条件。Jin等(2017)设计了一种能够有效逃离鞍点的局部搜索算法。尽管有这些工作,ReLU神经网络存在鞍点的具体条件仍然缺乏。

  形状的经验研究 除了理论研究外,还有一些关于景观可视化的实验探索(Goodfellow et al., 2015);廖和博吉奥(2017);Li et al. (2018b), level sets geometry Freeman & Bruna (2017) and mode connectivity Draxler et al. (2018); Garipov et al.(2018)。

  基于梯度的优化算法的收敛性 基于梯度的深度神经网络训练方法的收敛性已经有了很多研究。近期作品有:杜等人(2019年);朱艾伦等人(2019年);邹等(2018)研究表明,对于全连通、卷积和残差网络,如果梯度下降足够宽、步长足够小、权值初始化为高斯,梯度下降总是收敛的。然而,对于任何规模和任意初始权值的网络的收敛分析仍然需要对全局情况的理解。

  与我们的工作相比较 与我们最相关的作品是Soudry & Carmon (2016);Laurent & von Brecht (2018b);Safran & Shamir (2016);Soudry & Hoffer (2017);Safran & Shamir (2018);Zhou & Liang(2018),他们都研究了单层ReLU网络的局部极小值。与我们的工作相比,Soudry & Carmon(2016)只考虑了超参数化的情况,Laurent & von Brecht (2018b)采用了铰链损耗和线性可分数据,而我们的理论是通用的,适用于任何大小和任何输入的单隐层ReLU网络。Safran和Shamir(2016)计算了在包含全局极小值的陷入低谷的概率,而我们的理论考虑了在整个权重空间中存在的真正局部极小值的概率是如何变化的。Safran和Shamir(2018)的实验研究使用了一个学生-教师目标。比我们的不同。Soudry & Hoffer(2017)计算了局部极小值不佳的概率。然而,他们对局部极值的概念与我们不同,因为他们指的是具有非零损耗的局部极值,而在他们定义的盆地之外,这可能不是真正的极值。与Zhou & Liang(2018)相比,我们对可微区域无伪局部极小的证明是不同的,而且更简单,我们建议使用超平面的交点来识别真正的局部极小。

2、单隐层ReLU神经网络模型和初步

  在本文研究的单隐层ReLU网络模型中,存在KKK个ReLU函数激活的隐层神经元、ddd个输入神经元和111个输出神经元。我们用[N][N][N]表示{1,2,⋅⋅⋅,N}\{1,2,···,N\}{1,2,⋅⋅⋅,N}。输入样本是(xi,yi)(i∈[N])(x_i, y_i) (i∈[N])(xi​,yi​)(i∈[N]),其中xi∈Rdx_i∈\mathbb{R}^dxi​∈Rd是第iii个齐次数据向量(即标量111)和yi∈±1y_i∈±1yi​∈±1进行是xix_ixi​的标签。我们对网络大小和输入数据不做任何假设。将连接隐藏神经元与输入的权向量记为(wi,i∈[K])(w_i, i∈[K])(wi​,i∈[K])(增偏),输出神经元与隐藏神经元之间的权向量记为(zi,i∈[K])(z_i, i∈[K])(zi​,i∈[K]),则一隐含层ReLU网络的损失为

其中z={zk,k∈[k]},w={wk,k∈[k]},[y]+=max(0,y)z = \{z_k, k∈[k]\}, w = \{w_k, k∈[k]\}, [y]_+ = max(0,y)z={zk​,k∈[k]},w={wk​,k∈[k]},[y]+​=max(0,y)为ReLU函数,lll为损失函数。我们假设lll是凸的,这适用于常用的平方损失和交叉熵损失。

  即,输入样本(权重wiw_iwi​连接)隐藏神经元(权重ziz_izi​连接)输出神经元
  Moore-Penrose逆矩阵Horn & Johnson(2012)将在本文中大量使用。M+M^+M+表示矩阵M∈Rm×nM∈\mathbb{R} ^{m×n}M∈Rm×n的Moore-Penrose逆。它满足以下四个方程:MM+M=M,M+MM+=M+,(MM+)T=MM+,(M+M)T=M+MMM^+M=M, M^+MM^+=M^+,(MM^+)^T=MM^+,(M^+M)^T=M^+MMM+M=M,M+MM+=M+,(MM+)T=MM+,(M+M)T=M+M。因此,MM+MM^+MM+是对称的,如果M=0M=0M=0,则M+=0M^+=0M+=0。当且仅当rank(M)=mrank(M) = mrank(M)=m且M+m=InM^+m=I_nM+m=In​当且仅当rank(M)=nrank(M)=nrank(M)=n时,其中ImI_mIm​为m×mm×mm×m单位矩阵。若M∈Rrm×n(R>0是MM∈ \mathbb{R}^{m×n}_r (R >0是MM∈Rrm×n​(R>0是M的秩),MMM的全秩分解是M=FG(F∈Rrm×R,G∈Rrr×n)M = FG (F∈\mathbb{R}^{m×R}_r,G∈R^{r×n}_r)M=FG(F∈Rrm×R​,G∈Rrr×n​),则M+=GT(GGT)−1(FTF)−1FTM^+=G^T(GG^T)^{−1}(F^TF)^{−1}F^TM+=GT(GGT)−1(FTF)−1FT。对于b∈Rmb∈R^mb∈Rm,最小二乘问题minz∣∣Mz−b∣∣22min_z||M\mathbf{z}−\mathbf{b}||^2_2minz​∣∣Mz−b∣∣22​的通解是z=Mb+(I−M+M)c,(c∈Rn\mathbf{z}=M^b+(I−M^+M)\mathbf{c}, (\mathbf{c}∈R^nz=Mb+(I−M+M)c,(c∈Rn是任意的)。线性方程组Mz=bM\mathbf{z}=bMz=b可解的充要条件为MM+b=bMM^+\mathbf{b}=\mathbf{b}MM+b=b,通解为z=M+b+(I−M+M)c\mathbf{z}=M^+\mathbf{b}+(I-M^+M)\mathbf{c}z=M+b+(I−M+M)c。

3、所有的局部极小值都是全局的

  让我们把损失改写成简化问题的形式。引入变量IijI_{ij}Iij​,如果wj⋅xi>0w_j·x_i>0wj​⋅xi​>0,等于111。否则为000。(判断该神经元是否被激活) 损失可重写为:

  激活就通过隐层,不激活就不通过隐藏。
  定义 Rj=zjwj\mathbf{R}_j=z_j\mathbf{w}_jRj​=zj​wj​ ,将两层的权值进行积分,将损失转化为:

其中 R={Rk,k∈[K]}\mathbf{R} = \{\mathbf{R}_k, k∈[K]\}R={Rk​,k∈[K]} 。这种转换是我们后续章节证明的关键。它在很大程度上隐藏了两层权重的复杂性。

  即将输入样本与隐藏神经元,隐藏神经元与输出神经元,两者之间的权重用RRR表示来代表。

  对于单隐层ReLUReLUReLU网络模型,x\mathbf{x}x是w\mathbf{w}w空间中的超平面。样本(xi,i∈[N])(x_i, i∈[N])(xi​,i∈[N])将www空间划分为若干凸单元,如单元111和单元222,如图111所示。因此,每个权值wjw_jwj​都位于某一细胞或细胞边界上。如果所有的权值(wj,j∈[K])(w_j, j∈[K])(wj​,j∈[K])都位于单元格内,并且在单元格内移动而不跨越边界,则Iij(I∈[N])I_{ij} (I∈[N])Iij​(I∈[N])的值是常数,因此损失LLL在这些单元格内是 (Rj,j∈[K])(\mathbf{R}_j, j∈[K])(Rj​,j∈[K]) 的可微函数。我们将其中(wj,j∈[K])(w_j, j∈[K])(wj​,j∈[K])的单元称为定义单元。当越过两个细胞的边界时,如图111中从细胞222到细胞1,I211,I_{21}1,I21​在边界处从111变为000。因此,损失函数LLL在边界处是不可微的。局部极小值可以存在于单元内部或边界上,我们分别称之为可微和不可微的局部极小值。


图一:样本将权重空间划分为单元格。

  在本节中,我们将证明在每个单元中所有可微局部极小值都是全局的。我们首先证明LLL的可微局部极小值将导致∂L∂Rj=0(j∈[K])\frac{∂L}{∂\mathbf{R}_j} = 0 (j∈[K])∂Rj​∂L​=0(j∈[K]),然后通过LLL的凸性和凸函数的驻点对应于其唯一全局极小值的事实,得到期望的结论。

引理1 (1)中L(z,w)L(z,w)L(z,w)的任何可微局部极小值都对应于(2)中L(R)L(R)L(R)的驻点,即∂L∂Rj=0(j∈[K])\frac{∂L}{∂\mathbf{R}_j} = 0(j∈[K])∂Rj​∂L​=0(j∈[K])。

  详细的证明见附录A,这里我们给出了证明示意图。在任何可微的局部最小值(z^,w^)(\hat{z},\hat{w})(z^,w^),导数∂L∂zj,∂L∂wj(j∈[K])\frac{∂L}{∂z_j},\frac{∂L}{∂w_j}(j∈[K])∂zj​∂L​,∂wj​∂L​(j∈[K])存在,都等于000。通过Rj=zjwj\mathbf{R}_j = z_j\mathbf{w}_jRj​=zj​wj​,我们得到

  下面的定理111建立了可微局部极小的全局性,其证明在附录A中给出。

定理1 如果损失函数lll是凸的,那么L(z,w)L(z,w)L(z,w)的任何可微局部极小值都是全局极小值。此外,L(z,w)L(z,w)L(z,w)没有局部极大值。

  尽管可微局部极小值在其定义区域内是全局的,但它们通常仍然是全局中的局部极小值。此外,尽管L(R)L(\mathbf{R})L(R)有一个唯一的全局最小值(除非有一些Ri\mathbf{R}_iRi​没有涉及到LLL,见4.1小节),但(z,w)(z,\mathbf{w})(z,w)达到全局最小损失并不是唯一的。由于当c≠0c\ne0c​=0时,Rj=zjwj=czj⋅1cwj\mathbf{R}_j = z_j\mathbf{w}_j = cz_j·\frac{1}{c}\mathbf{w}_jRj​=zj​wj​=czj​⋅c1​wj​。因此,如果 {zj,wj}\{z_j,\mathbf{w}_j\}{zj​,wj​} 达到全局最小损失,那么{czj,1cwj}\{cz_j, \frac{1}{c}\mathbf{w}_j\}{czj​,c1​wj​}也一样。同样值得指出的是,虽然L(z,w)L(z,\mathbf{w})L(z,w)没有局部极大值,但它可能有鞍点,这将在第5节中讨论。

4、可微局部极小值的存在性准则及其位置

  定理111指出在每个单元中,所有局部的极小值L(z,w)L(z,\mathbf{w})L(z,w)都是全局的。在这一节中,我们首先找出 {zj∗,wj∗;j∈[K]}\{z_j^\ast,\mathbf{w}_j^\ast;j∈[K]\}{zj∗​,wj∗​;j∈[K]} 达到全局最小值,然后给出{wj∗;j∈[K]}\{\mathbf{w}_j^\ast;j∈[K]\}{wj∗​;j∈[K]} 是否在定义单元内从而成为真正的可微局部极小值的判断标准。

4.1 可微局部极小点的位置

  从现在开始,为了得到解析解我们假设损失函数lll是平方差损失。引理111表明,对于可微局部极小值,∂L∂Rj=0(j∈[K])\frac{∂L}{∂\mathbf{R}_j} = 0 (j∈[K])∂Rj​∂L​=0(j∈[K]),就等于解决了下面的最小二乘问题,


  相关联的线性系统∑j=1KIijRj⋅xi=yi(i∈[N])\sum_{j=1}^{K}I_{ij}\mathbf{R}_j·\mathbf{x}_i=y_i(i∈[N])∑j=1K​Iij​Rj​⋅xi​=yi​(i∈[N])可以改写成以下形式:

并且R=(R1T…RKT)T\mathbf{R}=(\mathbf{R}_1^T…\mathbf{R}_K^T)^TR=(R1T​…RKT​)T。在这里我们将R\mathbf{R}R的含义从(2)中的一个集合更改为一个向量而不影响理解。根据矩阵理论,对于非方阵A∈RN×KdA∈\mathbb{R}^{N\times Kd}A∈RN×Kd,最小二乘问题(5)的一般解R\mathbf{R}R可以用摩尔-彭罗斯逆的A表示如下,

c∈RKdc ∈\mathbb{R}^{Kd}c∈RKd是任意向量,III是单位矩阵。

  最优解R∗\mathbf{R}^\astR∗能够被如下几种情况所表征:

  • 1)R∗\mathbf{R}^\astR∗ 是唯一的: R∗=A+yR^\ast=A^+yR∗=A+y ,对应于 A+A=IA^+A=IA+A=I ,因此(I−A+A)c(I-A^+A)c(I−A+A)c 消失了。当且仅当rank(A)=Kdrank(A) = Kdrank(A)=Kd时发生。因此,N≥KdN≥KdN≥Kd是唯一解的必要条件。当AAA有满秩时,利用满秩分解:A+=(ATA)−1ATA^+=(A^TA)^{-1}A^TA+=(ATA)−1AT,解可表示为:
    (8)也可以通过求解∂L∂Rj=0(j∈[K])\frac{∂L}{∂\mathbf{R}j}=0(j∈[K])∂Rj∂L​=0(j∈[K])的线性系统得到,该方法将在本文后面的鞍点等处采用。

  • 2)R∗\mathbf{R}^\astR∗ 有无限个连续的解。在这种情况下,I−A+A≠0I−A^+A\ne0I−A+A​=0,因此任意向量ccc起作用。只有当rank(A)≠Kdrank(A)\ne Kdrank(A)​=Kd时才会发生这种情况。因此,存在无限个最优解的两种可能情况。a). N<KdN<KdN<Kd。这通常被称为超参数化,AR=yA\mathbf{R}=yAR=y有无限个解,其中R\mathbf{R}R的一些分量是自由变量。b)N≥KdN≥KdN≥Kd但rank(A)<Kdrank(A)<Kdrank(A)<Kd。举例就是一些隐藏的神经元并不是被所有的样本激活。(也就是说,Iij=0I_{ij}=0Iij​=0对于I∈[N]I∈[N]I∈[N]。AAA中对应的列是000)。

  与这些隐藏神经元相关的Rj\mathbf{R}_jRj​不影响损失LLL,因此可以自由改变。一个特殊的情况是,所有隐藏的单元不会被任何样本激活,从而得到A=0A = 0A=0,因此得到A+=0A^+=0A+=0和 R∗=c\mathbf{R}^\ast = cR∗=c ,在这种情况下,R∗=c\mathbf{R}^\ast = cR∗=c 可以是整个加权空间中的任意向量。

  一般来说,(7)显示出R∗\mathbf{R}^\astR∗是c∈RKdc∈\mathbb{R}^{Kd}c∈RKd的仿射变换。因此,Rj∗\mathbf{R}^\ast_jRj∗​可以是整个Rd\mathbb{R}^dRd空间,也可以是它的一个子空间,这取决于与Rj∗\mathbf{R}^\ast_jRj∗​对应的(I−A+A)(I−A^+A)(I−A+A)行是否为全秩。

  为了得到这些最小值,我们将(7)代入损耗L(R∗)=1N∣∣AR∗−y∣∣22L(\mathbf{R}^\ast)= \frac{1}{N}||A\mathbf{R}^\ast-\mathbf{y}||^2_2L(R∗)=N1​∣∣AR∗−y∣∣22​,得到:

  只有当AA+y=yAA^+\mathbf{y}=\mathbf{y}AA+y=y时,损失函数LLL为000,对应原线性系统AR=yA\mathbf{R} = \mathbf{y}AR=y有解。

4.2 一个说明性的例子

  我们给出了一个非常简单的例子来说明不同情况下的微分局部极小。假设只有一个隐藏神经元,在二维输入空间中有两个样本:x1=(1,0)Tx_1 = (1,0)^ Tx1​=(1,0)T,x2=(0,1)Tx_2 = (0,1)^Tx2​=(0,1)T,y1=1y_1 = 1y1​=1,y2=1y_2 = 1y2​=1。设z=1z = 1z=1,偏置b=0b = 0b=0。这两个样本成为w\mathbf{w}w空间中的两个向量,因此总共有四个细胞。我们可以在每个单元格使用(7)和(9)计算局部最小值的位置和损失值,细节呈现在附录B 。图2(a)显示整个景观,从这一个可以看到,在每个细胞里没有伪可微局部最小值,可微局部最小值或者是一个点或者是一条线或者一个平坦的高原

附录B. landscape的一个说明性的例子

  假设只有一个隐藏神经元,二维输入空间中有两个样本:x1=(1,0)Tx_1=(1,0)^Tx1​=(1,0)T,x2=(0,1)Tx_2=(0,1)^Tx2​=(0,1)T,y1=1,y2=1y_1=1,y_2=1y1​=1,y2​=1。设z=1z=1z=1,偏置b=0b=0b=0。将仅有的权向量表示为www,则两个样本成为空间中的两个向量,如下图所示。

损失景观的一个说明性示例:两个样本在2D2D2D权值空间中生成四个单元。

  在空间总共有四个单元格。在单元r1r_1r1​中,I11=I21=0I_{11}=I_{21}=0I11​=I21​=0,因此A=0A=0A=0,R∗\mathbf{R}^\astR∗是任意的。根据主文本中的(9),损失函数L=12(y12+y22)=1L=\frac{1}{2}(y_1^2+y_2^2)=1L=21​(y12​+y22​)=1。实际上,在细胞r1r_1r1​中,两个样本都不活跃,损失也不随w\mathbf{w}w而变化,因此景观是一个平坦的高原。损失函数是1,A的秩为0,局部极小是平面。细胞r2r_2r2​和r3r_3r3​是相似的,我们将以r3r_3r3​为例。


  这是一条到x1\mathbf{x}_1x1​的距离是111的线段。 A的秩为1,不是满秩矩阵,局部极小是一条线。 r3r_3r3​的最小损失是L=12L=\frac{1}{2}L=21​。由L(R∗)=1N∣∣AR∗−y∣∣22L(\mathbf{R}^\ast)= \frac{1}{N}||A\mathbf{R}^\ast-\mathbf{y}||^2_2L(R∗)=N1​∣∣AR∗−y∣∣22​公式可以计算出来

  在r4r_4r4​区域:

r4r_4r4​中的景观有一唯一最小值。r4r_4r4​中的最小损失是主文本中(9)L=0L=0L=0,因此r4r_4r4​中的局部极小值是全局最小值。

4.3 真可微局部极小值存在的标准

  在上面的例子中,如果y2=−1y_2 =−1y2​=−1,则R∗\mathbf{R}^\astR∗在r4r_4r4​细胞(右上角的那一个)的相对位置上显示的是(1,−1)T(1,−1)^T(1,−1)T,实际上在r4r_4r4​外面。在这种情况下,r4r_4r4​区域完全没有微分局部极小值,如图2(b)所示。在本小节中,我们将介绍在哪些条件下R∗\mathbf{R}^\astR∗将被保存在定义单元中。根据不同的R∗\mathbf{R}^\astR∗状态,对每个状态的条件进行如下讨论。


图2:两个样本的损失景观的一个说明性示例。(a) y1=1,y2=1y_1 = 1,y_2 = 1y1​=1,y2​=1。(b) y1=1,y2=−1y_1 = 1,y_2 = - 1y1​=1,y2​=−1。图aaa,左下边是平坦的损失值是000,左上边和右下边的极小值是 12\frac{1}{2}21​,右上边的最小值是 111,同时也是全局最小值

  • 1)对于 R∗\mathbf{R}^\astR∗ 是唯一的这种情况,为了让 w\mathbf{w}w 显示在定义的细胞中,w∗\mathbf{w}^\astw∗ 应该在每个样本的同一侧,在这些细胞中的任意一点上。对于指定定义单元格的Iij(i∈[N];j∈[K])I_{ij} (i∈[N];j∈[K])Iij​(i∈[N];j∈[K]),可以表示为:

    因为 Rj∗=zj∗wj∗\mathbf{R}^\ast_j = z^\ast_j \mathbf{w}^\ast_jRj∗​=zj∗​wj∗​ ,这些条件会被变成
    除了它的符号外,zj∗z^\ast_jzj∗​的大小并不影响状态,因此对于给定的 Rj∗\mathbf{R} ^\ast_jRj∗​ 来说,可微的局部最小值 (zj∗,wj∗)(z^\ast_j,\mathbf{w}^\ast_j)(zj∗​,wj∗​) 有两个分支,它们对应着 zj∗z^\ast_jzj∗​ 的不同符号。因此,存在唯一可微局部极小值的条件可以表示为:对于每一个 Rj∗(j∈[K])\mathbf{R} ^\ast_j (j∈[K])Rj∗​(j∈[K]) ,


  • 2) R∗\mathbf{R}^\astR∗是连续的,我们需要测试在(7)中连续可微的局部最小值是否在它们的定义细胞中。例如,将(7)替换为(11),那么对于每一个Rj∗(j∈[K])\mathbf{R}^\ast_j (j∈[K])Rj∗​(j∈[K]),条件就变成了
    其中(A+y)j(A ^+ \mathbf{y})_j(A+y)j​是A+yA^+\mathbf{y}A+y 相对于Rj∗\mathbf{R}^\ast_jRj∗​的行,以此类推。式(13)中ccc的每个不等式定义了RkdR^{kd}Rkd中的一个半空间。因此,现有的真正的连续可微局部极小化的准则归结为确定所有这些半空间的交点是否为空。非零交将是一个凸高维多面体。

  另一种判断真正的连续可微的局部最小值的存在方法是从(7)中提取 Rj∗\mathbf{R}^\ast_jRj∗​,这是整个Rd\mathbb{R}^dRd空间或它的一个线性子空间取决于行(I−A+A)j(I−A^ + A) _j(I−A+A)j​是否是满秩。如果所有Rj∗(j∈[K]\mathbf{R}^\ast_j (j∈[K]Rj∗​(j∈[K])都是整个 Rd\mathbb{R}^dRd空间,那么定义单元中的任何一点都是一个真正的可微局部极小值。图222中的平坦高原区域就是一个例子。如果Rj∗\mathbf{R}^\ast_jRj∗​是一个 Rd\mathbb{R}^dRd的线性空间,我们可以提前计算出细胞(将排列算法de Berg等人(2008)应用于样本的超平面),然后为每个 Rj∗,(j∈[K])\mathbf{R}^\ast_j,(j∈[K])Rj∗​,(j∈[K]) 找到其定义单元和线性子空间的交集。如果所有的交点都不为空,则存在连续的真可微局部极小值。

5、鞍点

5.1 可微鞍点存在的充要条件

  与局部极小值不同,鞍点是同时具有上升和下降方向的驻点,因此它们的海森矩阵是不确定的。

  由于鞍点是固定点,(3)和(4)仍然成立。如果∂L∂Rj≠0\frac{∂L}{∂\mathbf{R}_j}\ne0∂Rj​∂L​​=0,则zj=0z_j = 0zj​=0。另一方面,如果∂L∂Rj=0\frac{∂L}{∂\mathbf{R}_j}=0∂Rj​∂L​=0,(3)和(4)都满足。然而,∂L∂Rj(j∈[K])\frac{∂L}{∂\mathbf{R}_j} (j∈[K])∂Rj​∂L​(j∈[K])不可能全部等于零,否则解将是可微局部极小而不是鞍点。我们需要测试所有可能的组合形式:

定理2对于(1)中的损失函数lll为平方差损失,对于形式的所有组合,其中是(1,2,⋅⋅⋅,K)(1,2,···,K)(1,2,⋅⋅⋅,K)的任意排列,鞍点的最优线性系统的解是一块矩阵和是一块向量与下面的组件,

鞍点的最优解满足

误差是

  正如4.1小节所示,可能是唯一的,也可能是连续的。另一方面,(15)表明在经过wj\mathbf{w}_ jwj​空间中的原点的超平面上。定理222的证明将在附录C.1中给出。

附录C:可微鞍点存在的充要条件

C.1 定理2的证明

  因为鞍点也是驻点,(A.3)和(A.4)仍然成立。如果∂L∂Rj=0\frac{∂L}{∂\mathbf{R}_ j }= 0∂Rj​∂L​=0,(A.3)和(A.4)都满足。另一方面,如果通过(A.4)∂L∂Rj≠0\frac{∂L}{∂\mathbf{R}_ j }\ne 0∂Rj​∂L​​=0 ,则zj=0zj = 0zj=0。然而,∂∂L∂Rj=0(j=1,2,⋅⋅⋅,K)∂\frac{∂L}{∂\mathbf{R}_ j }= 0 (j = 1,2,···,K)∂∂Rj​∂L​=0(j=1,2,⋅⋅⋅,K)不可能同时等于000,否则解将是可微局部极小值而不是鞍点。不失一般性,假设∂∂L∂Rj=0(j=j1,j2,⋅⋅⋅,jK′;K′<K)∂\frac{∂L}{∂\mathbf{R}_ j }= 0 (j = j _1,j _2,···,j _{K^\prime};K^\prime < K)∂∂Rj​∂L​=0(j=j1​,j2​,⋅⋅⋅,jK′​;K′<K),其余∂∂L∂Rj(j=jk′+1,...,jk)∂\frac{∂L}{∂\mathbf{R}_ j } (j = j _{k^\prime+1},...,j_k)∂∂Rj​∂L​(j=jk′+1​,...,jk​)不为000。我们需要测试所有可能的组合(j1,j2,⋅⋅⋅,jK′)(j _1,j_ 2,···,j _{K^\prime})(j1​,j2​,⋅⋅⋅,jK′​),这样∂∂L∂Rj=0(j=j1,j2,⋅⋅⋅,jK′;K′<K)∂\frac{∂L}{∂\mathbf{R}_ j }= 0 (j = j _1,j _2,···,j _{K^\prime};K^\prime < K)∂∂Rj​∂L​=0(j=j1​,j2​,⋅⋅⋅,jK′​;K′<K),看是否存在鞍点。

  从现在开始忽略LLL中的1N\frac{1}{N}N1​,我们有

6、不可微局部极小

  我们考虑这样一种情况:一个权向量位于两个单元的边界上,因此(2)中的损失函数LLL是不可微的。假设 wm\mathbf{w}_mwm​ 被一个样本xn\mathbf{x}_nxn​隔开位于细胞111和细胞222的边界上。我们将给出为不可微局部极小的充要条件。

  ∂L∂wm\frac{∂L}{∂\mathbf{w}_m}∂wm​∂L​是不可微的。在下面的引理中,为了使wm\mathbf{w}_mwm​是局部最小值,我们给出∂L∂wm\frac{∂L}{∂\mathbf{w}_m}∂wm​∂L​应该满足的约束条件。

引理2:假设w~m\tilde{\mathbf{w}}_mw~m​位于被样本xn\mathbf{x}_nxn​隔开的细胞111和细胞222的边界上,其中细胞222在xn\mathbf{x}_nxn​的正侧,细胞111在负侧。w~m\tilde{\mathbf{w}}_mw~m​是一个不可微的极小值当且仅当:

其中a//b\mathbf{a}//\mathbf{b}a//b表示向量a\mathbf{a}a与b\mathbf{b}b方向相同,∂L∂wm∣1\frac{∂L}{∂\mathbf{w}_m}|_1∂wm​∂L​∣1​就是111号细胞里的∂L∂wm\frac{∂L}{∂\mathbf{w}_m}∂wm​∂L​。

  利用以下定理,给出了不可微局部极小值存在的条件。

定理3:对于(1)中的损失函数lll是平方差损失,存在不可微的局部最小值驻留在两个细胞的边界当且仅当线性系统DR=dD\mathbf{R}=dDR=d对于任何m∈[K]m∈[K]m∈[K]有解,在D∈R(K+1)d×KdD∈\mathbb{R}^{(K + 1) d\times Kd}D∈R(K+1)d×Kd是一个矩阵,d∈R(K+1)dd∈\mathbb{R}^{(K + 1) d}d∈R(K+1)d与以下的组合是一个矢量,

它的解R∗\mathbf{R}^*R∗满足以下两个不等式,或者zm>0z_m>0zm​>0或zm<0z_m<0zm​<0,

  定理333中的线性系统有解当且仅当 DD+d=dDD^+ \mathbf{d} = \mathbf{d}DD+d=d 。如果是可解的,它的一般解是 R∗=D+d+(I−D+D)c\mathbf{R}^\ast= D^+\mathbf{d}+ (I−D ^+ D)\mathbf{c}R∗=D+d+(I−D+D)c 。如果 R∗\mathbf{R}^\astR∗ 是不唯一的,则(18)和(19)中的每个不等式将把 ccc 限制在半空间内。因此,如果这些半空间的交点不为空,则存在不可微局部极小。引理222和定理333的证明将在附录D.1中给出,并且在附录D.2中给出真正不可微局部极小值存在的条件。

7、存在真正的局部极小值的概率

7.1 当所有权值向量平行时局部极小点的位置

  在这一节中,我们将计算高斯输入数据存在的真实局部极小值的概率,并展示这个概率如何随着网络权值的变化而变化。其核心思想是,如果没有样本位于原始的加权向量 w\mathbf{w}w 和局部最小 w∗\mathbf{w}^\astw∗ 显示之间,(10)成立并且 w∗\mathbf{w}^\astw∗ 与 w\mathbf{w}w 存在于相同的细胞内,因此就得到了真正的局部最小。因此,存在真正的局部极小值的概率实际上是 w\mathbf{w}w 和 w∗\mathbf{w}^\astw∗ 之间不存在样本的概率。然而,从w∗\mathbf{w}^\astw∗在(8)的一般解出发得到分析概率是很复杂的。相反,我们将施加一些限制来简化解决方案。

  更具体地说,我们假设所有的权值都是平行的。用单位向量i\mathbf{i}i表示权向量的方向,权wk\mathbf{w}_kwk​由其法向量nk=i\mathbf{n}_k = \mathbf{i}nk​=i或nk=−i\mathbf{n}_k = -\mathbf{i}nk​=−i及其xxx坐标hkh _khk​表示,如fig.3的左边所示。在最小化损失的过程中,我们固定每个权重的正常值,只调整其位置。此外,我们确定了zkz_kzk​的值,并在nk=i\mathbf{n}_k = \mathbf{i}nk​=i时令zk=1z_k = 1zk​=1。nk=−i\mathbf{n}_k = -\mathbf{i}nk​=−i时令zk=−1z_k = -1zk​=−1 。如第4.3节所述,zkz_kzk​的大小与确定真正的局部极小值的存在无关。固定它的符号相当于选择局部极小值的两个分支中的一个。因此,通过这一事实wk⋅xi\mathbf{w}_k·\mathbf{x}_iwk​⋅xi​等于从xi\mathbf{x}_ixi​到wi\mathbf{w}_iwi​距离wkw kwk,我们有Rk⋅xi=zkwk⋅xi=xi−hk\mathbf{R}_k·\mathbf{x}_i = z_k\mathbf{w }_k·\mathbf{x}_i = x_i-h_kRk​⋅xi​=zk​wk​⋅xi​=xi​−hk​,xi=xi⋅ix_i=\mathbf{x}_i·\mathbf{i}xi​=xi​⋅i。

  权重输入空间分割成一系列的地区,如Ω1,Ω2Ω_1,Ω_2Ω1​,Ω2​和Ω3Ω_3Ω3​在图3。每个地区位于两个相邻之间权重向量,并在每个地区Ωj,Iik(i∈Ωj)Ω_j,I_{ik}(i∈Ω_j)Ωj​,Iik​(i∈Ωj​)常量值,我们表示IΩjkI_{Ω_j k}IΩj​k​。总损失可以写成:

  通过假设所有权向量都是平行的,我们将原来的问题简化为一维问题,这将大大简化后面讨论的概率计算。通过全局最优条件∂L∂hk=0\frac{∂L}{∂h_k} = 0∂hk​∂L​=0,我们可以推出以下线性系统,

F,fF, \mathbf{f}F,f分别是矩阵和向量,有以下元素,

NjN_jNj​是是区域ΩjΩ_jΩj​的样本数量。

  让我们先讨论两个权向量的简单情况,方向如图3右侧面板所示。在这种情况下,很容易得到线性系统(21)的解析解。(21)成为

  N1+N_{1 +}N1+​是正面例子的数量在地区Ω1Ω_1Ω1​中,xˉ1+\bar{x}_{1 +}xˉ1+​是xxx坐标的平均Ω1Ω_1Ω1​中所有正样品,等等。假设正类和负类有等于先验(因此正负样本的数量是相等的),和的概率表示正(负)例子在区域ΩjΩ_jΩj​和Pj+(Pj−)P _{j+} (P_{j−})Pj+​(Pj−​),(23)的解决方案如下

其中 xw1∗x_{w^*_1}xw1∗​​ 是 w1∗\mathbf{w}_1^\astw1∗​ 的 xxx 坐标。

  如果有两个以上的权向量,我们需要用等来表示 FFF 和 f\mathbf{f}f 来求解线性系统(21)。详见附录E.1。


图3:计算所有权向量并行时存在的局部极小值的概率。

7.2 高斯输入数据陷入可微局部极小值的概率

  现在,假设数据样本来自高斯分布。这意味着在每个有限区域内,pj+≠0,pj−≠0p_{j +} \ne 0, p_{j -} \ne 0pj+​​=0,pj−​​=0。因此,FFF是满秩的,(21)是唯一解。

   w1∗\mathbf{w}^*_1w1∗​ 和 w1\mathbf{w}_1w1​ 之间存在着间隙, w2∗\mathbf{w}^\ast_2w2∗​ 和 w2\mathbf{w}_2w2​ 之间也存在着间隙。如果没有样本存在于这些间隙中,那么当从 {w1,w2}\{\mathbf{w}_1, \mathbf{w}_2\}{w1​,w2​} 开始时,将会有一个真正的局部最小值,使局部搜索方法陷入其中。因此,假设NNN个样本是独立同分布的,存在局部极小值的概率为

其中PgP_gPg​是一个样本位于其中一个间隙的概率。使用g1,g2,…,gkg1, g2,…,g_kg1,g2,…,gk​标注间隔区域,

  对于高斯分布,其依赖的PgP_gPg​、的详细解析计算见附录E.2。

  由于PtP_tPt​是指数消失的,所以存在局部极小值的概率是很小的,只要其中一个间隙足够大,其中有样本的概率是不可忽略的。这个结论仍然适用于不平行的权重向量和从其他分布中获得的数据,由于wi∗\mathbf{w}^*_iwi∗​和wi\mathbf{w}_iwi​通常会形成一个中间区域,其中样本的概率是非000的。

  现有鞍点和不可微局部极小值的概率仍然指数消失,因为通常存在间隙。

7.3 实验结果

  在本小节中,我们进行了一些实验,以展示陷入可微局部极小值的概率有多大,以及它如何随权重向量的位置而变化。数据分布如图3右侧面板所示。正、负样本均来自对称的多元高斯分布,均值分别位于 x+=1x _+ = 1x+​=1 和 x−=−1x _- = - 1x−​=−1 处。将两种分布的协方差矩阵设为识别矩阵。NNN设置为100100100。

  在第一个实验中,我们考虑了两个权向量的情况: w1\mathbf{w}_1w1​ 和 w2\mathbf{w}_2w2​ 。首先,我们使 xw2=0x_{\mathbf{w}_2} = 0xw2​​=0 ,并在区间 [0,6][0,6][0,6] 内移动 w1\mathbf{w}_1w1​ 。图4(a)显示了经验损失随 xw1x_{\mathbf{w}_1}xw1​​ 的变化情况,其中明显存在全局最小值,且不存在糟糕的局部最小值。然后使用(24)计算 xw1∗x_{\mathbf{w}_1^\ast}xw1∗​​ 和 xw2∗x_{\mathbf{w}_2^\ast}xw2∗​​ ,并计算用(25)到达局部最小值的概率。图4(b)显示了这个概率随 xw1x_{\mathbf{w}_1}xw1​​ 的变化。对比图4(a)和图4(b),我们可以发现,在全局损失最小值处被困的概率确实很高,这证明了我们关于局部极小值处被困概率理论的正确性。当 xw1x_{\mathbf{w}_1}xw1​​ 距离数据均值较远时,该概率接近111,损失几乎为常数,对应于陷入平坦高原。这可以归因于这样一个事实,即虽然 xw1x_{\mathbf{w}_1}xw1​​ 和 xw1∗x_{\mathbf{w}_1^\ast}xw1∗​​ 之间仍然存在一个距离,但由于远离数据平均值时高斯密度的指数消失特性,样本处于这个距离的概率非常低。在权值空间的其他地方,由于样本在间隙中的概率很高,所以命中局部极小值的概率非常低。


图4:存在的局部极小值w.r.t的概率,两个权向量的位置。(a)移动某一权重时的经验损失情况。(b)移动其中一个权值时,存在局部极小值的概率。©移动两个权值时存在局部极小值的概率。

  然后我们考虑两个重物都可以移动的情况。图4c显示了移动两个权值时陷入局部极小值的概率。它实际上是两个独立移动 w1\mathbf{w}_1w1​ 和 w2\mathbf{w}_2w2​ 的概率的张量积。靠近原点的小峰对应全局最小值。如果权值离数据簇不是太远,那么陷入局部极值的概率就很低。这可能有助于解释为什么在训练神经网络时,用小数值随机初始化权值的常见做法会成功。

  对于多重权向量的情况也可以观察到类似的现象。我们在附录E.3中探讨了四个权向量的情况。结果表明,被困于局部极值点的概率仍然很低。由于对于连续的高斯数据分布不适用超参数化的概念,因此没有必要考虑权重大得多的情况。

  最后,我们讨论了离散数据的情况。如果(21)中的FFF是秩亏的(附录E.1中讨论了一些典型的情形),则某些权值的最优位置不是唯一的,可以自由改变。然而,剩下的权值与它们唯一的最优解之间仍然存在差距,因此存在局部极值的概率很低。离散数据和参数化网络的情况可能有所不同。随着网络规模的增大,更多的权值具有自由的最优位置,因此可能与它们的定义单元发生非空交点,从而导致存在错误局部极小值的概率增加。

8、结论和未来工作

  摘要研究了单隐层ReLU网络的全局损失,包括可微局部极小值的全局性、存在可微和不可微局部极小值和鞍点的条件以及存在不良局部极小值的概率。

  在我们未来的工作中,我们感兴趣的问题如下:1)借鉴计算几何的思想,实现高效的相交算法,并对离散数据进行实验,以识别坏局部极小值的存在。2)深度ReLU网络的全局特点。

附录

A. 引理1和定理1的证明

理解单隐层ReLU神经网络的全局损失相关推荐

  1. 深度学习笔记:手写一个单隐层的神经网络

    出处:数据科学家养成记 深度学习笔记2:手写一个单隐层的神经网络 笔记1中我们利用 numpy 搭建了神经网络最简单的结构单元:感知机.笔记2将继续学习如何手动搭建神经网络.我们将学习如何利用 num ...

  2. 单隐层神经网络 python_单隐层前馈神经网络,single hidden-layer feeclforward neural networks,在线英语词典,英文翻译,专业英语...

    补充资料:Hopfield神经网络模型 Hopfield神经网络模型 Hopfield neural network model 收敛于稳定状态或Han加Ing距离小于2的极限环. 上述结论保证了神经 ...

  3. 神经网络与深度学习三:编写单隐层神经网络

    三:编写单隐层神经网络 1 神经网络概述 这篇文章你会学到如何实现一个神经网络,在我们深入学习技术细节之前,现在先大概快速的了解一下如何实现神经网络,如果你对某些内容不甚理解(后面的文章中会深入其中的 ...

  4. 手写单隐层神经网络_鸢尾花分类(matlab实现)

    文章目录 思路 留言 效果 代码 mian split training testing 思路 sigmoid函数做激活函数 二分类交叉熵做损失函数 mian函数:数据预处理 split函数:数据集分 ...

  5. Python实现BP神经网络ANN单隐层回归模型项目实战

    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取. 1.项目背景 20世纪80年代中期,David Runelhart.Geoff ...

  6. Python实现BP神经网络ANN单隐层分类模型项目实战

    说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取. 1.项目背景 BP(back propagation)神经网络是1986年由R ...

  7. 排序层-深度模型-2015:AutoRec【单隐层神经网络推荐模型】

    AutoRec模型是2015年由澳大利亚国立大学提出的. 它将 自编码器(AutoEncoder ) 的思想和协同过滤结合,提出了一种单隐层神经网络 推荐模型.因其简洁的网络结构和清晰易懂的模型原理, ...

  8. 1.3.1 单隐层网络的数学实现

    神经网络概览 如图所示,整个神经网络的概览大致如下,下面我们会讨论这个网络时如何一步步实现的. 神经网络表示 我们来解释一下这个图中的中间隐藏层是什么含义: 在一个神经网络中,当你使用监督学习来训练他 ...

  9. 1.4激活函数-带隐层的神经网络tf实战

    激活函数 激活函数----日常不能用线性方程所概括的东西 左图是线性方程,右图是非线性方程 当男生增加到一定程度的时候,喜欢女生的数量不可能无限制增加,更加趋于平稳 在线性基础上套了一个激活函数,使得 ...

最新文章

  1. AI时代,如何“未雨绸缪”面向未来工作?
  2. Redis requires a monkey patched socket library to work with gevent
  3. springboot:映射静态资源路径
  4. 2019年全栈工程师技术指南和趋势!
  5. 不用L约束又不会梯度消失的GAN,了解一下?
  6. .net6给winform带来的新功能
  7. C/S和B/S模式的主要特点以及区别在那里?画出CGI工作原理图,具体描述CGI的主要流程和实现步骤。
  8. 用友CDM系统,将货位间商品移库单(一步)修改为内调出入库单(一步)方法使用...
  9. 海康威视摄像头忘记密码后如何重置
  10. VC被控制时关闭极域电子教室、破解联想硬盘保护系统密码(上)
  11. 15年全国电赛风力摆控制系统(一点也不难)
  12. Win 10 host文件不见了怎么办?
  13. 三级面包屑的页面跳转到二级面包屑页面时,报错:Rendered fewer hooks than expected.
  14. 核心单词Word List 7
  15. wps html转换成pdf文件,wps怎么转换成pdf
  16. 2020哔哩哔哩校招前端笔试编程题
  17. 【转载】C#中List集合First和FirstOrDefault方法有何不同
  18. win7 ie11 uninstall卸载
  19. 吐血推荐珍藏的 Chrome 插件二
  20. 2019年“华为杯”研究生数学建模比赛总结

热门文章

  1. oracle apex global,Oracle Apex 实用笔记系列 1 - Oracle Apex 调试技巧
  2. Multisim基础 直流电流源示例
  3. Python:numpy array数据去头去尾巴
  4. BMI值(Body Mass Index,简称BMI),是指身高体重指数,是国际上常用的衡量人体肥胖程度和是否健康的重要标准,BMI的计算公式是:体重指数(BMI)=体重(kg)÷身高2(m)。
  5. iPhoneXS Max 获取UDID
  6. 2022鹏业安装算量软件10大常见问题整理
  7. 福州三中 计算机竞赛,福建福州三中喜获信息学竞赛NOIP2020全省人数第1!总计35人获奖...
  8. 人生的意义是通过努力活得更好
  9. 乾坤物联-UWB定位基站和定位信标的区别
  10. 论文阅读:(NFM)Neural Factorization Machines for Sparse Predictive Analytics