【ML05】Feature Scaling 特征缩放
Feature Scaling
- Feature Scaling 特征缩放的目的是什么
- Feature Scaling Method #3
- Dividing by maximum
- Mean Normalization
- Z-Score normalization
Feature Scaling 特征缩放的目的是什么
考虑前两个组图:
组图1:同一辆大货车拉货,已知拉的货越多车能行驶的举例越少,同一个函数在x坐标的单位不同导致函数在同一个x下的斜率不同。
组图2:如果将两个函数分别做梯度下降,明显第一个需要更少的迭代次数就可以完成。
所以如果我们要做梯度下降的话,肯定更想选择第一个来做。如果第一个需要1天来完成,那么第二个则有可能需要100天甚至半年才出结果。
特征缩放的概念,就是将第二个图想办法做成第一个图,从而使得梯度下降更快,从而使得算法更加高效。
The technique “feature scaling” will enable gradient descent run much faster.
----Andrew Ng
Feature Scaling Method #3
3种进行特征缩放的方法如下:
Dividing by maximum
Related python code
# 获得最大值
import numpy as np
a = [1,2,3,4,5]
maximum = np.max(a)
Mean Normalization
Related python code
# 获得平均值mean
import numpy as np
a = [1,2,3,4,5,6]
mean_value = np.mean(a)
Z-Score normalization
Basic knowledge:
Standard Derivation
标准差和方差都是衡量一组数据离散程度的统计量,在实际计算中,标准差和方差越小,表示离散程度更小,即数据更加稳定。
Related python code
# 获得标准差值
import numpy as np
a = [1,2,3,4,5,6]
a_deri = np.std(a)
end —>
【ML05】Feature Scaling 特征缩放相关推荐
- EOF-DataScience:数据预处理/特征工程之线性变换—四种特征缩放Scaling算法简介、标准化standardization、归一化Normalization的概述与区别
DataScience:数据预处理/特征工程之线性变换-四种特征缩放Scaling算法简介.标准化standardization.归一化Normalization的概述与区别 目录 数据处理中常见的四 ...
- 特征缩放 feature scaling
样本不同特征的取值范围如果不一样,可能导致迭代很慢,为了减少特征取值的影响,可以对特征数据进行缩放,加速算法的收敛.常见的映射范围有 [0,1][0, 1][0,1] 和 [−1,1][-1, 1][ ...
- 机器学习中的特征缩放(feature scaling)浅谈
引言 在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能 ...
- 浅谈机器学习中的特征缩放(feature scaling)
引言 在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能 ...
- Feature Scaling(特征缩放)的一些方法和使用选择
(1)最大最小值归一化(min-max normalization):将数值范围缩放到 [0, 1] 区间里 (2)均值归一化(mean normalization):将数值范围缩放到 [-1, 1] ...
- 特征缩放feature scaling(吴恩达版详解)
前言 最近在学习吴恩达的深度学习,对于特征缩放的知识点很是困惑,不明白为什么它会加快收敛速度,在网上看大佬们的解答,大佬们也都是给了两个对比图之后就把这个问题带过去了,于是我认认真真,反复看了吴恩达的 ...
- matlab进行特征缩放,机器学习中(Feature Scaling)特征缩放处理的matlab实现方式
在进行特征缩放的时候,其一般做法是(X-mu)/sigma mu:代表均值 sigma:代表标准差 在matlab中,函数mean可以求特征的均值,函数std可以求特征的标准差. 假设训练集为m,特征 ...
- 特征缩放(Feature Scaling)
如果某个特征的取值范围比其他特征大很多,那么数值计算就受该特征的主要支配.但实际上并不一定是这个特征最重要,通常需要把每个特征看成同等重要.归一化/标准化数据可以使不同维度的特征放在一起进行比较,可以 ...
- CS229 1 .线性回归与特征归一化(feature scaling)
线性回归是一种回归分析技术,回归分析本质上就是一个函数估计的问题(函数估计包括参数估计和非参数估计),就是找出因变量和自变量之间的因果关系.回归分析的因变量是应该是连续变量,若因变量为离散变量,则问题 ...
最新文章
- C++中一些你不知道的冷知识
- Java数据类型缓存池
- Win8 Metro(C#)数字图像处理--2.69中点滤波器
- laravel 163发送邮件
- Fabric权限管理和策略
- Python学习笔记(四)Python函数
- Navicat导入TXT到数据库
- 2014年06月30日
- 视频分享|新冠肺炎疫情趋势预测大赛技术详解
- pythontry参数_Python try except异常处理详解(入门必读)
- dubbo源码编译(顶)
- YYText-显示富文本
- HTTP Header中的内容(请求Header、响应Header)
- matlab fscanf
- 释放/清理 VMware 虚拟磁盘空间
- mysql start with connect by_MYSQL实现Oracle的Start with…Connect By递归树查询
- 使用Fileupload组件上传文本和文件
- DIP数字图像处理笔记
- SQL Server查询优化方法(查询速度慢的原因很多,常见如下几种)
- Vue2 中 .env.development .env.production 详细说明
热门文章
- SSH框架 Bean property * is not writable or has an invalid setter method错误分析与解决方法
- python反爬虫原理与绕过实战pdf-antispider
- 全新的3D采样捕捉工具:Substance 3D Sampler(Sa) mac中文版
- HX711测试【一个非常廉价且实用的模块】
- csp认证201903-1--小中大(c++)
- ERP生产管理系统,如何解决机械制造企业生产管理难题?
- [问题已处理]-helm提示kubernetes configuration file is group-readable
- oracle.简单查询、排序、限定查询、单行函数
- java long 运算_Java Long类型,阶乘计算
- 转载分享)移动金融安全风险分析与防护