这篇博客对应的是Andrew.Ng的那篇文章:An Analysis o f Single-Layer Networks in Unsupervised Feature Learning,文章的主要目的是讨论receptive field size,number of hidden nodes, step-stride以及whitening在对卷积网络模型的影响。同时,单层网络中,作者用sparse auto-coding,RBM, k-means和GMM四种模型提取特征,最后得到的结果是 k-means 的结果是最好的,文章提供了对应的代码利用k-means在单层网络中提取特征分类。试验中用到的数据库是CIFAR。可以在这个网站下载http://www.cs.toronto.edu/~kriz/文章的代码可以去NG的主页下载:http://ai.stanford.edu/~ang/papers.php。

由于文章只是单纯的以实验的形式分析receptive field size,number of hidden nodes, step-stride以及whitening对网络的影响,并无数学分析过程,涉及到k-means的知识可以去看我前面的博文http://www.cnblogs.com/txg198955/p/4072859.html,如果我们用k-means得到了聚类中心,那么对于给定的一个样本我们对其有两种特征表示,即文中所讲的:

方法一:1-of-k(这种表示是一个向量,距离最近的那一类对应的值为1,其余为0)

方法二:给定一个样本,先求出这个样本到每一类的平均距离,然后用这个平均距离减去样本到每一类的距离得到A,若A<=0,则取0,否则取A。代码中用到的就是这种方法

好了,知道了这些,就可以对这几个影响因素进行分析了。文章给出的分析结果如下:

effect of  Number of whithening:对于sparse auto-coding和RBM,whithening的影响不是很大,在选取100个特征的情况下,效果还是很明显,但是选取较多的特征后,效果就不明显了。但是对于k-means,whithening的影响就非常明显了,这可能是k-means不具备处理特征之间的相关性的原因。具体效果如下图所示:

     effect of  Number of features: 作者用k-means分别选取100,200,400,800,1200,1600个特征进行测试,得到的结论是特征越多效果越好,1600个特征点时,正确率为79.6%,4000个的时候为97.21%。所以理论上特征越多效果越好,不过特征越多计算的开销就越大,这个自己把握就是了。

effect of stride: 文中指出,stride=1的时候效果最好,随着stride不断增大,效果会越来越差。文中对此也有说明,stride越小则更多的samples会归到pooling中,特征的重复就更多

理论上,特征重复越多效果就越好。

    effect of receptive field size:文中指出如果“receptive field”太大,则包含的特征就会有冗余。比如一个“receptive field”会包含多个nonlinear feature-edges。如果“receptive field”太小,则pooling处理的样本会增多,这样stride也必须小。

下面是我对代码解读的一个分析,画成图帮助大家理解:

转载于:https://www.cnblogs.com/txg198955/p/4108831.html

非监督学习的单层网络分析相关推荐

  1. Deep Learning论文笔记之(三)单层非监督学习网络分析

    Deep Learning论文笔记之(三)单层非监督学习网络分析 zouxy09@qq.com http://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感 ...

  2. 吴恩达机器学习笔记-非监督学习

    聚类 之前的课程中我们学习的都是监督学习相关的算法,现在来开始看非监督学习.非监督学习相对于监督非学习来看,其使用的是未标记的训练集而监督学习的是标记的训练集.换句话说,我们不知道向量y的预期结果,仅 ...

  3. 【机器学习与深度学习理论要点】05.监督学习,非监督学习概念及应用场景

    1)什么是监督学习.非监督学习 监督学习:使用已知正确答案的示例来训练网络.已知数据和其一一对应的标签,训练一个预测模型,将输入数据映射到标签的过程. 非监督学习:在非监督学习中,数据并不被特别标识, ...

  4. Machine Learning | (12) 非监督学习-k-means

    Machine Learning | 机器学习简介 Machine Learning | (1) Scikit-learn与特征工程 Machine Learning | (2) sklearn数据集 ...

  5. 监督学习、非监督学习、强化学习都是什么?终于有人讲明白了

    01 术语整理 本节概述机器学习及其三个分类(监督学习.非监督学习和强化学习).首先,与机器学习相关的术语有人工智能(Artificial Intelligence,AI).机器学习(Machine ...

  6. TF之AE:AE实现TF自带数据集AE的encoder之后decoder之前的非监督学习分类

    TF之AE:AE实现TF自带数据集AE的encoder之后decoder之前的非监督学习分类 目录 输出结果 代码设计 输出结果 代码设计 import tensorflow as tf import ...

  7. 机器学习理论入门:第一章 监督学习与非监督学习介绍

    第一章 监督学习与非监督学习简介 一.机器学习基本概念 概念:研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有 的知识结构使之不断改善自身的性能 输入 基本概念 –特征向量: ...

  8. [云炬python3玩转机器学习笔记] 2-3监督学习、非监督学习、半监督学习和增强学习

    监督学习:给机器的训练数据拥有"标记"或"答案" 主要处理分类.回归问题 k近邻.线性回归和多项式回归 逻辑回归 SVM 决策树和随机森林 非监督学习:给机器的 ...

  9. 监督学习和非监督学习

    转自:http://blog.csdn.net/warrior_zhang/article/details/41453327 机器学习的常用方法,主要分为有监督学习(supervised learni ...

最新文章

  1. 加速键使用方法详解(示例)
  2. 【NOIP2010】引水入城
  3. 一种更清晰的Android架构
  4. 通过文件IO控制硬件设备的方法
  5. SCCM 2007 R2部署、操作详解系列之部署篇
  6. TI的Controlsuit里的硬件资源打开方式(Eagle转AD)
  7. afudos备份bios不动_afudos备份bios不动_老鸟经验之谈刷坏BIOS后的2种恢复方法
  8. 这就是艺术「GitHub 热点速览 v.22.25」
  9. 步进电机为何需要驱动器
  10. 域——windows服务器域详解
  11. 打印机扫描计算机远程扫描仪,怎么用打印机扫描文件-彩色网络打印机扫描设置FTP版...
  12. android fragmentmanager 界面报错,FragmentManager is already executing transactions异常
  13. 阶段性总结(从软件工程到分层架构)
  14. android用户界面组件都是放置在,Android开发工程师第十章 节 用户界面高级组件.ppt...
  15. 搭建WebRTC服务器
  16. 数据仓库架构的技术选型
  17. shell 脚本中常见的 if [ $? -ne 0 ]; 意思
  18. 89canvas制作时钟
  19. 阿里云短信服务与微信小程序对接进行注册
  20. 锐捷、ruijie、校园网 认证

热门文章

  1. 诗歌rails 之rails g
  2. echarts --- 多折线图按段显示颜色规则订制
  3. 导出数据生成excel
  4. 关于游戏平衡性——王者荣耀英雄伤害数值参考
  5. Spring Boot实践教程(二):SpringApplication分析
  6. 强制html元素不随窗口缩小而换行
  7. 考勤助手——数据库3.0版本
  8. Nuget发布Dll
  9. 计算机应用技术的创新
  10. 如何为libs目录下的jar包关联源代码