clustering 聚类

k-means方法:

HAC方法(Hierarchical Agglomerative Clustering):

Distributed Representation

用于实现dimension reduction。输入为特征,输出为维数较小的数据。常用的方法为PCA,principle component analysis
可以使用拉格朗日乘数法进行PCA的求解。

we want the variance of z1 as large as possible

需要寻找一个变换矩阵W,使得x向量通过运算,得到z向量,其中z向量的各分量为x向量在W行向量的投影。而输出的向量z需要保证其越分散越好,即需要保证z的方差最大。方差的概念是所有的输出减去输出平均向量的平方和。最终的问题转换为,寻找到一个wiwiw_i,使得右下计算公式最大。

采用拉格朗日乘数法进行求解,最后权重矩阵W的各个向量均为S矩阵特征值对应的特征向量,从大到小排序。

PCA实例

对于较为复杂的输入特征,可以使用较为简单的components进行表示,如下所示:

进行变换后,可以得到下图,寻找合适的u1,u2,...,uku1,u2,...,uku_1,u_2,...,u_k,使得误差函数L最小。这里可以使用SVD分解进行求解

进一步地,PCA可以表示成神经网络的形式。这里需要参考最前面PCA的方法,也就是z=Wx;而得到的c1 c2是压缩后的结果,需要保证x−x^x−x^x-\hat{x}最小,auto-encoder。

对于unlabel data,可以使用PCA进行降维操作。(对于labeled data,可以使用LDA进行降维操作),从而得到输入数据的主要成分,eigen-digit, eigen-face。
由于PCA的权重值可以是负值,因此得到的主要成分不一定是简单的组成成分,这可以使用NMF进行计算,non-negative matrix factorization。

Matrix factorization

PCA参考

  1. Matrix Factorization

2018-01-31

机器学习 李宏毅 L24-Linear Dimension Reduction相关推荐

  1. 台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction

    台大李宏毅Machine Learning 2017Fall学习笔记 (14)Unsupervised Learning:Linear Dimension Reduction 本博客整理自: http ...

  2. 无监督学习:Linear Dimension Reduction(线性降维)

    一 Unsupervised Learning 把Unsupervised Learning分为两大类: 化繁为简:有很多种input,进行抽象化处理,只有input没有output 无中生有:随机给 ...

  3. Datacamp 笔记代码 Unsupervised Learning in Python 第三章 Decorrelating your data and dimension reduction

    更多原始数据文档和JupyterNotebook Github: https://github.com/JinnyR/Datacamp_DataScienceTrack_Python Datacamp ...

  4. 机器学习Machine Learning:特征选择Feature Selection 与 数据降维Dimension Reduction的区别?

    为什么会有降维和特征选择??? 我们知道机器学习的终极目标就是为了预测,当然预测前我们要对数据进行训练.通常我们不会拿原始数据来训练,为什么呢?可能有些人觉得原始信息(original data)包含 ...

  5. 机器学习(李宏毅)—— Linear Regression

    Regression:输入可以是股票市场的各种指数.自动驾驶的检测角度.大数据推荐系统,输出是数字. 实例:宝可梦的CP值(战斗力)预测         输入的内容包含,分别代表宝可梦的当前战斗力,种 ...

  6. 神奇宝贝/数码宝贝分类器笔记-机器学习-李宏毅2021

    1.我们不利用classificaion而利用regression来分类的时候会遇到的问题 在update的时候,regression因为一些噪点,或者偏离的点,逐渐将boundry远离了原本的目的函 ...

  7. 机器学习可行性与VC dimension

    机器学习可行性 在银行评估贷款申请人的授信请求前,会进行风险评估.符合申请则通过,反之驳回.长时间的数据和申请使得银行从中找到了一些规律并开始learning,所以风险评估就是一个learning的过 ...

  8. 机器学习-线性回归(Linear Regression)

    目录 1.什么是线性回归 2. 能够解决什么样的问题 3. 一般表达式是什么 4. 如何计算 4.1 Loss Function--MSE 4.2 标准方程方法 5. 过拟合问题如何解决 5.1 什么 ...

  9. Stanford机器学习---第一讲. Linear Regression with one variable

    本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学 ...

最新文章

  1. iOS 11开发教程(八)定制iOS11应用程序图标
  2. android setlatesteventinfo 找不到,安卓通知的基本用法
  3. 介绍一下Objective-c常用的函数,常数变量
  4. Java 洛谷 P1426 小鱼会有危险吗
  5. 启明云端分享| 盘点 ESP32-S3到底有哪些功能特性
  6. bootstrap 查缺补漏
  7. [PowerShell]人人都值得学一点PowerShell实现自动化(1)在VisualStudio上使用PowerShell...
  8. MD5 SHA1 HMAC HMAC_SHA1区别
  9. BFC与边距重叠详解
  10. 【转】 Android xml中 @和?区别,style和attr小结
  11. Mybatis如何给某个包中类起别名,以及起别名报错的解决方案
  12. python+django+vue酒店入住客房管理系统
  13. reviewboard 安装
  14. 测试服务器带宽的几种常用方法
  15. 前端 禁止微信调整字体大小
  16. 【常用软件】Ubuntu-划词翻译软件Stardict
  17. 南都周刊:别了,老兵乔布斯
  18. Mecha:将 Mesh 进行到底
  19. Android R 11 后台定位权限没有 始终允许选项的解决方法
  20. 如何把很多照片拼成一张照片_ps里面怎么把多张图合成一张图

热门文章

  1. 链读好文:热加密存储与冷加密存储有什么区别?
  2. 权限管理系统6—业务功能实现—1分页查询
  3. Java NetConf 使用
  4. 微软移除升级Win10补丁 免费已成历史
  5. Android 状态栏, 标题栏, 导航栏,系统栏,应用栏的区别和解释
  6. matplotlib(一)——pyplot使用简介
  7. 人工智能芯片与传统芯片
  8. 如何在macOS中使用预览放大镜工具
  9. NFC读写(android代码)
  10. 海信电视鸿蒙系统,都是55寸智能电视,荣耀智慧屏、小米和海信,你会咋选?...