1.covariate shift

在论文中经常碰到covariate shift这个词,网上相关的中文解释比较少。你可能会在介绍深度学习Batch Normalization方法的论文到中看到covariate shift这个词,并且所有看过这篇论文的或者实际做过工程的人,都知道BN这种归一化手段很好用,可以避免covariate shift

那么covariate shift到底是什么?
不用想得太复杂,covariate shift最早只是机器学习中的一个问题。同时迁移学习会经常涉及到这个概念。
假设x是属于特征空间的某一样本点,y是标签。covariate这个词,其实就是指这里的x,那么covariate shift可以直接根据字面意思去理解:样本点x的变化。
这么简单?没错就是这么简单!

我们讲的规范一点:
假设q1(x)是测试集中一个样本点的概率密度,q0(x)是训练集中一个样本点的概率密度。最终我们估计一个条件概率密度p(y|x,θ),它由x和一组参数θ={θ1,θ2......θm}所决定。对于一组参数来说,对应loss(θ)函数评估性能的好坏
综上,当我们找出在q0(x)分布上最优的一组θ'时,能否保证q1(x)上测试时也最好呢?
传统机器学习假设训练集和测试集是独立同分布的,即q0(x)=q1(x),所以可以推出最优θ'依然可以保证q1(x)最优。但现实当中这个假设往往不成立,伴随新数据产生,老数据会过时,当q0(x)不再等于q1(x)时,就被称作covariate shift

2.Internal covariate shift

对于深度学习这种包含很多隐层的网络结构,在训练过程中,因为各层参数老在变,所以每个隐层都会面临covariate shift的问题,也就是在训练过程中,隐层的输入分布老是变来变去,这就是所谓的“Internal Covariate Shift”,Internal指的是深层网络的隐层,是发生在网络内部的事情,而不是covariate shift问题只发生在输入层。

covariate shift和Internal covariate shift相关推荐

  1. 论文阅读Batch Normalization: Accelerating Deep Network Training byReducing Internal Covariate Shift

    论文阅读Batch Normalization: Accelerating Deep Network Training byReducing Internal Covariate Shift 全文翻译 ...

  2. Batch normalization:accelerating deep network training by reducing internal covariate shift的笔记

    说实话,这篇paper看了很久,,到现在对里面的一些东西还不是很好的理解. 下面是我的理解,当同行看到的话,留言交流交流啊!!!!! 这篇文章的中心点:围绕着如何降低  internal covari ...

  3. 读文献——《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    在自己阅读文章之前,通过网上大神的解读先了解了一下这篇文章的大意,英文不够好的惭愧... 大佬的文章在https://blog.csdn.net/happynear/article/details/4 ...

  4. 批归一化《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    批归一化<Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift ...

  5. Batch Normalization + Internal Covariate Shift(论文理解)

    在看压缩神经网络相关的论文中,总是能看见 Batch Normalization,在网上找了很多博客看,但是一直处于一种似懂非懂的状态.于是去找了原论文<Batch Normalization: ...

  6. Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift 论文笔记

    0 摘要 当前神经网络层之前的神经网络层的参数变化,会引起神经网络每一层输入数据的分布产生变化,这使得训练一个深度神经网络变得复杂.通过设置较小的学习率以及更谨慎的初始化参数减慢了训练,并且由于非线性 ...

  7. 【BN】《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    ICML-2015 在 CIFAR-10 上的小实验可以参考如下博客: [Keras-Inception v2]CIFAR-10 文章目录 1 Background and Motivation 2 ...

  8. Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift(BN)

    internal covariate shift(ics):训练深度神经网络是复杂的,因为在训练过程中,每层的输入分布会随着之前层的参数变化而发生变化.所以训练需要更小的学习速度和careful参数初 ...

  9. 《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》阅读笔记与实现

    今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节. 这次先讲Google的这篇<Batch Normali ...

最新文章

  1. C 上传文件到服务器(含接收端源码)
  2. 成熟的AI应该自己写代码,IBM发布5亿行代码数据集,包含55种语言|开源
  3. Win32汇编ListBox最简Demo
  4. zblog php 指定分类,zblogPHP 为某些分类指定分类模板,后台版方法
  5. 初学Java,如何成为年薪50万的程序员?
  6. java在容器中导入图片_Java程序员必学技术:@Import直接导入类,在容器@Configuration、@Component中是怎么直接导入类注册到容器的?...
  7. TPLinker 联合抽取 实体链接方式+源码分析
  8. 【php数组函数序列】之prev() - 移动数组内部指针到上一个元素的位置,并返回该元素值...
  9. order by 中 使用decode
  10. AttributeError: 'dict' object has no attribute 'iteritems' python3报错
  11. php sqrt函数,sqrt函数怎么使用
  12. 【我的失败人生】1105感到自己的弱小
  13. tensorflow保存数据为.pb格式和加载.pb文件(转)
  14. php中result的值,PHP 返回所取得行中字段的值
  15. matlab进阶摸索篇——彩色图直方图均衡化
  16. 一周新闻纵览:谷歌浏览器信息泄露,出卖个人信息获利终落网,严查App偷窥乱象
  17. 如何获取EasyCVR平台设备通道的RTMP视频流地址?
  18. 语音信号处理1 ----- 基础知识
  19. 小飞升值记——(13)
  20. console接口配置登录密码

热门文章

  1. Qt开发,编译报错:Cannot find file: xxx.pro.
  2. 第一批95后已经是阿里科学家了
  3. 浅述蓝牙Mesh的配网流程
  4. Android集成网易云IM实现单聊和群聊
  5. 周易卦爻解读笔记——贲卦
  6. 小程序 onPageScroll监听滚动结束
  7. 计算机的基础学科是什么,【讨论】计算机科学与技术是否可以算作‘基础学科’呢?...
  8. python教程七牛云_使用Python实现数据从七牛云到阿里云的自动化迁移
  9. [AHK]获取同花顺客户端中正在浏览的股票代码
  10. CY7C68013A 使用keil 5 c51 开发