1 神经网络学习(训练)步骤

初始化权值和偏置参数——1 从总训练集抽取一批数据——2 前向传播计算损失、反向传播由损失计算各参数的梯度——3 利用梯度更新参数——4 重复1、2、3

2 神经网络:端对端的机器学习(从输入到输出);所有问题都可用统一的流程完成
3 损失函数:神经网络学习参数时的指标,使得损失函数最小的参数即为最优参数;损失函数一般用均方误差和交叉熵误差
4 均方误差(mean square error):E=1/2Σ(yk-tk)²;python实现:1/2*np.sum((yk-tk)**2);k为维数,
t为监督数据(训练数据),y为输出值;one-hot表示的话,正确解的标签为1
5 交叉熵误差(cross entropy error):E=-Σtk*log yk;log以e为底,y,t同上,t为one-hot标签形式时,正确解的标签为1
6 梯度:简单来说就是各个变量的偏导数组成的向量,梯度表示各点处函数值减小最多的方向,寻找最小值的梯度法为梯度下降法
表示为:x=x-η*grad;η为学习率,grad为梯度

均方误差(mean square error)

#均方误差损失
def mean_square_error(y,t):return 1/2*np.sum((y-t)**2)

交叉熵误差(cross entropy error)

#交叉熵误差损失
def cross_entropy_error(y,t):delta=1e-7 #微小值,防止出现log(0)无穷小return -np.sum(t*np.log(y+delta))
#mini_bach版交叉熵,可用于one-hot或者非one-hot标签形式
def mini_bach_cross_entropy_error(y,t):#输入单个数据if y.ndim==1:t=t.reshape(1,t.size)y=y.reshape(1,y.size)#标签为one-hot时正确解标签为1,忽略为0的值,返回最大值标签的索引,one-hot时y.size=t.size=batch_size*class_num;class_num为分类的数目if y.size==t.size:t=t.argmax(t,axis=1) #返回第1轴(行)方向最大值的索引组成的一维数组batch_size=y.shape[0]return -np.sum(np.log(y[np.arange(batch_size),t]+1e-7))/batch_size #y[np.arange(batch_size),t]为索引访问y[a,b]位置的y的值

神经网络的学习(训练):损失函数(均方误差、交叉熵误差)相关推荐

  1. 损失函数(交叉熵误差)

    损失函数 神经网络以某个指标为线索寻找最优权重参数.神经网络的学习中所用的指标称为损失函数 (loss function).这个损失函数可以使用任意函数,但一般用均方误差和交叉熵误差等. 交叉熵误差 ...

  2. 机器学习入门(08)— 损失函数作用和分类(均方误差、交叉熵误差)

    神经网络的学习中的"学习"是指从训练数据中自动获取最优权重参数的过程. 为了使神经网络能进行学习,将导入损失函数这一指标.而学习的目的就是以该损失函数为基准,找出能使它的值达到最小 ...

  3. 经典损失函数——均方误差(MSE)和交叉熵误差(CEE)的python实现

    损失函数(loss function)用来表示当前的神经网络对训练数据不拟合的程度.这个损失函数有很多,但是一般使用均方误差和交叉熵误差等. 1.均方误差(mean squared error) 先来 ...

  4. 【深度学习】——分类损失函数、回归损失函数、交叉熵损失函数、均方差损失函数、损失函数曲线、

    目录 代码 回归问题的损失函数 分类问题的损失函数 1. 0-1损失 (zero-one loss) 2.Logistic loss 3.Hinge loss 4.指数损失(Exponential l ...

  5. 深度学习-tensorflow1.x之交叉熵损失函数(softmax_cross_entropy_with_logits)代码实现 Tensorflow1.x 和 Numpy

    交叉熵损失函数 神经网络(机器学习)中作为损失函数 具体的理解可以看 https://blog.csdn.net/SIGAI_CSDN/article/details/86554230 交叉熵损失函数 ...

  6. 深度学习中的信息论——交叉熵

    信息量 可以说就信息量是在将信息量化.首先信息的相对多少是有切实体会的,有的人一句话能包含很多信息,有的人说了等于没说.我们还可以直观地感觉到信息的多少和概率是有关的,概率大的信息也相对低一些.为了量 ...

  7. 常用损失函数:交叉熵损失

    目录 什么是损失函数 均方误差与交叉熵 为什么要使用交叉熵 交叉熵与KL散度之间的关系 参考文献 什么是损失函数 对于损失函数网上已经有充分的解释:"机器学习中所有的算法都需要最大化或最小化 ...

  8. 【深度学习的数学】交叉熵公式如何推导?

    使用最小二乘法的二次代价函数作为损失函数由于存在计算收敛时间长的情况,人们引入了交叉熵函数,利用交叉熵和sigmoid函数,可以消除sigmoid函数的冗长性,提高梯度下降法的计算速度,那么,交叉熵函 ...

  9. 机器学习中的损失函数(交叉熵损失、Hinge loss)

    损失函数 文章目录 损失函数 1 交叉熵损失 1.1 从最大似然估计到交叉熵损失 概率论中的MLE 机器学习中的MLE 交叉熵损失 1.2 多分类的交叉熵损失函数 1.3 比较 2. Hinge lo ...

最新文章

  1. R 语言关于 SSL 证书异常处理笔记
  2. WinAPI: waveOutGetErrorText - 根据错误号得到错误描述
  3. ERP实施中要重视物料编码的规则
  4. Microsoft Jet 数据库引擎找不到输入表或查询或者找不到文件
  5. python基础学习笔记(十三)
  6. 十二、用Axis操作 Header头部信息
  7. 初学JAVA,开发环境的搭建(JDK和Eclipse的安装)
  8. python 操作excel表格
  9. Microsoft Windows Sharepoint Services V3.0 安装图示
  10. QXDM 存储log的方法
  11. Mac壁纸软件 - 动态 高清 炫酷 4K 精美壁纸下载
  12. 实验一、安卓开发环境基本配置实验
  13. E45: 'readonly' option is set (add ! to override)报错如何解决
  14. 微信小程序-001-抽签功能-000-目录概要
  15. 解决SQL Server日志空间满的方法
  16. Gazebo + cartographer2D + velodyne多线雷达建图仿真
  17. easyexcel 2.2.6 新版本以列表的形式读取 Excel
  18. ffmpeg命令详细说明
  19. Java修饰符——final
  20. Webview相关属性和事件处理

热门文章

  1. PHP日志系统 plog(PHP)
  2. 电容器的基本介绍大全
  3. bzoj 4044: [Cerc2014] Virus synthesis 回文树
  4. 论文分享:基于频繁序列模式挖掘方法的森林景观格局演化遥感研究
  5. “射同余异”或“射同基反”?揭秘三端式正弦波振荡器
  6. 银行虚拟化部署设计方案
  7. Boilsoft Video Splitter(视频无损分割)V8.1.4开心版 全网独一
  8. JSP学生学籍管理系统设计与实现(源代码+论文+开题报告+外文翻译+答辩PPT)
  9. linux命令打开history,Linux的history命令基本使用
  10. 斐讯K1 K2 开启Telnet