文章目录

  • 一、正则化与偏差-方差分解
  • 二、pytorch中的L2正则项—weight decay(权值衰减)
  • 三、Dropout概念
  • 四、dropout抑制过拟合的工作原理
  • 五、dropout内部是怎么实现只让部分信号通过并不更新其余部分
  • 六、Dropout的注意事项
  • 七、PyTorch中的Dropout网络层
    • 1.PyTorch中Dropout的实现细节

一、正则化与偏差-方差分解

  正则化方法是机器学习(深度学习)中重要的方法,它目的在于减小方差。下面借助周志华老师西瓜书中的对于方差、偏差的定义来进行理解。
  泛化误差可分解为:偏差、方差与噪声之和。