y=xTAxy=x^TAxy=xTAx,其中x是n维向量,A是n阶方阵,求dy/dxdy/dxdy/dx
记A=[aij]A=\left[a_{i j}\right]A=[aij​].x∈Rn,x=(x1,…,xn)Tx \in \mathbb{R}^{n}, x=\left(x_{1}, \ldots, x_{n}\right)^{T}x∈Rn,x=(x1​,…,xn​)T, 则 y=∑i=1n∑j=1naijxixjy=\sum_{i=1}^{n} \sum_{j=1}^{n} a_{i j} x_{i} x_{j}y=∑i=1n​∑j=1n​aij​xi​xj​

∂y∂xk=∑i≠k∂∂xk(∑j=1naijxixj)+∂∂xk(∑j=1nakjxkxj)=∑i≠k(∂∂xk(∑j≠kaijxixj)+∂∂xk(aikxixk))+∑j≠k∂∂xk(akjxkxj)+∂∂xk(akkxk2)=∑i≠k(0+aikxi)+∑j≠kakjxj+2akkxk=∑i=1naikxi+∑j=1nakjxj=(xTA)k+(Ax)k\begin{aligned} \frac{\partial y}{\partial x_{k}} &=\sum_{i \neq k} \frac{\partial}{\partial x_{k}}\left(\sum_{j=1}^{n} a_{i j} x_{i} x_{j}\right)+\frac{\partial}{\partial x_{k}}\left(\sum_{j=1}^{n} a_{k j} x_{k} x_{j}\right) \\ &=\sum_{i \neq k}\left(\frac{\partial}{\partial x_{k}}\left(\sum_{j \neq k} a_{i j} x_{i} x_{j}\right)+\frac{\partial}{\partial x_{k}}\left(a_{i k} x_{i} x_{k}\right)\right)+\sum_{j \neq k} \frac{\partial}{\partial x_{k}}\left(a_{k j} x_{k} x_{j}\right)+\frac{\partial}{\partial x_{k}}\left(a_{k k} x_{k}^{2}\right) \\ &=\sum_{i \neq k}( 0+a_{i k} x_{i})+\sum_{j \neq k} a_{k j} x_{j}+2 a_{k k} x_{k} \\ &=\sum_{i=1}^{n} a_{i k} x_{i}+\sum_{j=1}^{n} a_{k j} x_{j} \\ &=\left(x^{T} A\right)_{k}+(A x)_{k} \end{aligned} ∂xk​∂y​​=i​=k∑​∂xk​∂​(j=1∑n​aij​xi​xj​)+∂xk​∂​(j=1∑n​akj​xk​xj​)=i​=k∑​⎝⎛​∂xk​∂​⎝⎛​j​=k∑​aij​xi​xj​⎠⎞​+∂xk​∂​(aik​xi​xk​)⎠⎞​+j​=k∑​∂xk​∂​(akj​xk​xj​)+∂xk​∂​(akk​xk2​)=i​=k∑​(0+aik​xi​)+j​=k∑​akj​xj​+2akk​xk​=i=1∑n​aik​xi​+j=1∑n​akj​xj​=(xTA)k​+(Ax)k​​
其中 (xTA)k\left(x^{T} A\right)_{k}(xTA)k​ 是行向量xTAx^{T} AxTA的第k个分量,(Ax)k(A x)_{k}(Ax)k​是列向量AxAxAx的第k个分量。因此∂y∂xk=(xTA)k+(xTAT)k\frac{\partial y}{\partial x_{k}}=\left(x^{T} A\right)_{k}+\left(x^{T} A^{T}\right)_{k}∂xk​∂y​=(xTA)k​+(xTAT)k​.
所以
∇y=xTA+xTAT=xT(A+AT)\nabla y=x^{T} A+x^{T} A^{T}=x^{T}\left(A+A^{T}\right) ∇y=xTA+xTAT=xT(A+AT)
特别地,如果A是实对称矩阵,则
∇y=xTA+xTAT=2xTA\nabla y=x^{T} A+x^{T} A^{T}=2x^{T}A ∇y=xTA+xTAT=2xTA

二次型x^TAx梯度(求导)推导过程相关推荐

  1. Softmax及其损失函数求导推导过程

    Softmax激活函数的损失函数求导过程推导 Softmax函数介绍 Softmax的损失函数:交叉熵 Softmax求导过程 损失函数求导 Softmax函数介绍 在深度学习领域,多分类问题的激活函 ...

  2. 最详细的Sigmoid函数的求导推导过程

    Sigmoid函数为logistic回归.神经网络等模型的激活函数. 函数图像如下: 定义域是从 (−∞,+∞),值域是(0,1). 函数: 导数: 推导过程为:                   ...

  3. 逻辑回归损失函数求导推导过程

    逻辑回归--分类算法 代价函数的寻找 sigmoid函数的非线性会导致损失函数变得非线性,无法找到全局最优值,所以需要进行损失函数替换. 代价函数的合理性分析 预测正确,损失较小:预测错误,损失较大 ...

  4. 卷积神经网络系列之softmax loss对输入的求导推导

    我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等.虽然现在已经开源了很多深度学习框架(比如MxNet,Caf ...

  5. softmax loss对输入的求导推导

    转载自: https://blog.csdn.net/u014380165/article/details/79632950 我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CN ...

  6. ML之ME/LF:机器学习中常见模型评估指标/损失函数(LiR损失、L1损失、L2损失、Logistic损失)求梯度/求导、案例应用之详细攻略

    ML之ME/LF:机器学习中常见模型评估指标/损失函数(LiR损失.L1损失.L2损失.Logistic损失)求梯度/求导.案例应用之详细攻略 目录 常见损失函数求梯度案例 1.线性回归求梯度 2.L ...

  7. L2正则化Regularization详解及反向传播的梯度求导

    摘要 本文解释L2正则化Regularization, 求解其在反向传播中的梯度, 并使用TensorFlow和PyTorch验证. 相关 系列文章索引 : https://blog.csdn.net ...

  8. 交叉熵代价函数(损失函数)及其求导推导

    转自:http://blog.csdn.net/jasonzzj/article/details/52017438 前言 交叉熵损失函数 交叉熵损失函数的求导 前言 说明:本文只讨论Logistic回 ...

  9. 交叉熵代价函数(损失函数)及其求导推导 (Logistic Regression)

    目录 1. 前言 2. 交叉熵损失函数 3. 交叉熵损失函数的求导 前言 说明:本文只讨论Logistic回归的交叉熵,对Softmax回归的交叉熵类似(Logistic回归和Softmax回归两者本 ...

最新文章

  1. 友盟数据—值得手游创业者关注的玩家数据
  2. /dev/mapper/VolGroup00-LogVol00 100% 如何处理
  3. mysql autoenlist默认_mysql连接参数详解
  4. mysql索引参数_MySQL索引介绍
  5. T-SQL 查询、修改数据表
  6. eclipse关闭mysql数据库_Eclipse 连接 Mysql 数据库操作总结
  7. PHP面向对象之方法重写
  8. 十二导联动态心电图技术参数
  9. 支持向量机---SVM 最小二乘支持向量机---LSSVM
  10. matlab 图形对称,Matlab关于直线为轴对称与点为中心对称的图形代码
  11. 世界500强企业名称中英对照
  12. C语言中钩子函数使用讲解
  13. 他发现了古老疟疾背后的元凶,也在质疑声中开创了致病生物的新时代
  14. 轰隆隆-小站地址原理整理分析
  15. php 生成国税局二维码
  16. 用WWW::Mechanize来写twiki
  17. C# 后台 背景图片拼接图片与文字,文字图片生成与背景图片合成
  18. 咨询答疑:从产品设计到康威定律
  19. (zzulioj1007)鸡和兔关在一个笼子里,鸡有2只脚,兔有4只脚,没有例外。已知现在可以看到笼子里m个头和n只脚,求鸡和兔子各有多少只
  20. 总结一下这两天的学习笔记

热门文章

  1. 的确恶搞:教你调戏QQ好友
  2. 【urllib的使用(下)】
  3. 我是如何学习计算机编程的
  4. 【LeetCode】三维型体的投影面积和表面积
  5. OVS CT连接追踪实现NAT
  6. Unity 3D 脚本参考
  7. 第二章 java基础语言(三)
  8. 湘鄂情欲加码大数据 若定增失败将变卖资产
  9. 搜狗皮肤php怎么转换,搜狗皮肤PHP怎么使用 搜狗输入法皮肤PHP使用方法
  10. 区块链100讲:16进制数据的编码/解码算法