本系列文章为原创,转载请注明出处。
作者:Tom Bai
邮箱: baidongdong@nudt.edu

若您觉得本博文对您有帮助,请您为我点赞并关注我,以鼓励我写出更优秀的博文。谢谢!


Normalization这个名词在很多地方都会出现,但是对于数据却有两种截然不同且容易混淆的处理过程。对于某个多特征的机器学习数据集来说,第一种Normalization是对于将数据进行预处理时进行的操作,是对于数据集的各个特征分别进行处理,主要包括min-max normalizationZ-score normalizationlog函数转换atan函数转换等。第二种Normalization对于每个样本缩放到单位范数(每个样本的范数为1),主要有L1-normalization(L1范数)、L2-normalization(L2范数)等,可以用于SVM等应用

第一种 Normalization

数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间。在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。其中最典型的就是数据的标准化处理,即将数据统一映射到[0,1]区间上。标准化在0-1之间是统计的概率分布,标准化在某个区间上是统计的坐标分布。目前数据标准化方法有多种。不同的标准化方法,对系统的评价结果会产生不同的影响,然而不幸的是,在数据标准化方法的选择上,还没有通用的法则可以遵循。

标准化(normalization)的目的:

在数据分析之前,我们通常需要先将数据标准化(normalization),利用标准化后的数据进行数据分析。数据标准化处理主要包括数据同趋化处理无量纲化处理两个方面。数据同趋化处理主要解决不同性质数据问题,对不同性质指标直接加总不能正确反映不同作用力的综合结果,须先考虑改变逆指标数据性质,使所有指标对测评方案的作用力同趋化,再加总才能得出正确结果。数据无量纲化处理主要解决数据的可比性。经过上述标准化处理,原始数据均转换为无量纲化指标测评值,即各指标值都处于同一个数量级别上,可以进行综合测评分析。也就说标准化(normalization)的目的是:

  1. 把特征的各个维度标准化到特定的区间

  2. 把有量纲表达式变为无量纲表达式

归一化后有两个好处:

1. 加快基于梯度下降法或随机梯度下降法模型的收敛速度

如果特征的各个维度的取值范围不同,那么目标函数的等线很可能是一组椭圆,各个特征的取值范围差别越大,椭圆等高线会更加狭长。由于梯度方向垂直于等高线方向,因而这时优化路线会较为曲折,这样迭代会很慢,相比之下,如果特征的各个维度取值范围相近,那么目标函数很可能很接近一组于正圆,因而优化路线就会较为直接,迭代就会很快。~

如上图,x1的取值为0-2000,而x2的取值为1-5,假如只有这两个特征,对其进行优化时,会得到一个窄长的椭圆形,导致在梯度下降时,梯度的方向为垂直等高线的方向而走之字形路线,这样会使迭代很慢,相比之下,右图的迭代就很快

2. 提升模型的精度

在多指标评价体系中,由于各评价指标的性质不同,通常具有不同的量纲和量级。当各指标间的水平相差很大时,如果直接用原始指标值进行分析,就会突出数值较高的指标在综合分析中的作用,相对削弱数值水平较低指标的作用。因此,为了保证结果的可靠性,需要对原始指标数据进行标准化处理。

如在涉及到一些距离计算的算法时,例如KNN:如果一个特征值域范围非常大,那么距离计算就主要取决于这个特征,从而与实际情况相悖(比如这时实际情况是值域范围小的特征更重要)。另外在SVM中,最后的权值向量ω\omega受较高指标的影响较大

所以归一化很有必要,它可以让各个特征对结果做出的贡献相同。

标准化的方法:

1. min-max normalization
xnormalization=x−xMinxMax−xMin

{x}_{normalization}=\frac{x-x_{Min}}{x_{Max}-x_{Min}}

这种归一化方法比较适用在数值比较集中的情况。这种方法两有个缺陷:

  • 当有新数据加入时,可能导致 max 和 min 发生变化,需要重新定义。
  • 如果max和min不稳定,很容易使得归一化结果不稳定,使得后续使用效果也不稳定。实际使用中可以用经验常量值来替代max和min

注意:计算时对每个特征分别进行。将数据按特征(按列进行)减去其均值,并除以其方差。得到的结果是,对于每个特征来说所有数据都聚集在0附近,方差为1。

使用SciKit-Learn实现:

>>> X_train = np.array([[ 1., -1.,  2.],
...                     [ 2.,  0.,  0.],
...                     [ 0.,  1., -1.]])
...
>>> min_max_scaler = preprocessing.MinMaxScaler()
>>> X_train_minmax = min_max_scaler.fit_transform(X_train)
>>> X_train_minmax
array([[ 0.5       ,  0.        ,  1.        ],[ 1.        ,  0.5       ,  0.33333333],[ 0.        ,  1.        ,  0.        ]])>>> #将相同的缩放应用到测试集数据中
>>> X_test = np.array([[ -3., -1.,  4.]])
>>> X_test_minmax = min_max_scaler.transform(X_test)
>>> X_test_minmax
array([[-1.5       ,  0.        ,  1.66666667]])>>> #缩放因子等属性
>>> min_max_scaler.scale_
array([ 0.5       ,  0.5       ,  0.33...])>>> min_max_scaler.min_
array([ 0.        ,  0.5       ,  0.33...])

当然,在构造类对象的时候也可以直接指定最大最小值的范围:feature_range=(min, max),此时应用的公式变为:

X_std=(X-X.min(axis=0))/(X.max(axis=0)-X.min(axis=0))
X_scaled=X_std/(max-min)+min
2. Z-score normalization
xnormalization=x−μσ

{x}_{normalization}=\frac{x-\mu }{\sigma}

也叫标准差标准化,经过处理的数据符合标准正态分布,即均值为 0,标准差为 1 。其中μ为所有样本数据的均值,σ为所有样本数据的标准差。

注意:计算时对每个特征分别进行。将数据按特征(按列进行)减去其均值,并除以其方差。得到的结果是,对于每个特征来说所有数据都聚集在0附近,方差为1。

实现SciKit-Learn有两种不同的实现方式:

  • 使用sklearn.preprocessing.scale()函数,可以直接将给定数据进行标准化。
>>> from sklearn import preprocessing
>>> import numpy as np
>>> X = np.array([[ 1., -1.,  2.],
...               [ 2.,  0.,  0.],
...               [ 0.,  1., -1.]])
>>> X_scaled = preprocessing.scale(X)>>> X_scaled
array([[ 0.  ..., -1.22...,  1.33...],[ 1.22...,  0.  ..., -0.26...],[-1.22...,  1.22..., -1.06...]])>>>#处理后数据的均值和方差
>>> X_scaled.mean(axis=0)
array([ 0.,  0.,  0.])>>> X_scaled.std(axis=0)
array([ 1.,  1.,  1.])
  • 使用sklearn.preprocessing.StandardScaler类,使用该类的好处在于可以保存训练集中的参数(均值、方差)直接使用其对象转换测试集数据。
>>> scaler = preprocessing.StandardScaler().fit(X)
>>> scaler
StandardScaler(copy=True, with_mean=True, with_std=True)>>> scaler.mean_
array([ 1. ...,  0. ...,  0.33...])>>> scaler.std_
array([ 0.81...,  0.81...,  1.24...])>>> scaler.transform(X)
array([[ 0.  ..., -1.22...,  1.33...],[ 1.22...,  0.  ..., -0.26...],[-1.22...,  1.22..., -1.06...]])>>>#可以直接使用训练集对测试集数据进行转换
>>> scaler.transform([[-1.,  1., 0.]])
array([[-2.44...,  1.22..., -0.26...]])
3. log函数转换
xnormalization=log10(x)log10(max)

{x}_{normalization}=\frac{log_{10}(x)}{log_{10}(max)}

4. atan函数转换
xnormalization=atan(x)∗2π

{x}_{normalization}=\frac{atan(x)*2}{\pi}

注意:使用这个方法需要注意的是如果想映射的区间为[0,1],则数据都应该大于等于0,小于0的数据将被映射到[-1,0]区间上,而并非所有数据标准化的结果都映射到[0,1]区间上。

相关资料:

  • https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-02-normalization/
  • https://morvanzhou.github.io/tutorials/machine-learning/sklearn/3-1-normalization/
  • http://www.cnblogs.com/chaosimple/p/4153167.html
  • http://www.cnblogs.com/LBSer/p/4440590.html
  • 标准化方法的选择
  • http://blog.csdn.net/pipisorry/article/details/52247379

第二种Normalization

第二种Normalization对于每个样本缩放到单位范数(每个样本的范数为1),主要有L1-normalization(L1范数)、L2-normalization(L2范数)等

Normalization主要思想是对每个样本计算其p-范数,然后对该样本中每个元素除以该范数,这样处理的结果是使得每个处理后样本的p-范数(比如l1-norm,l2-norm)等于1。

p-范数的计算公式:

∥X∥p=((∣∣x1∣∣)p+(∣∣x2∣∣)p+...+(∣∣xn∣∣)p)1p

\left \| X \right \|_{p}=\left (\left ( \left | x_{1} \right |\right )^{p}+\left ( \left | x_{2} \right |\right )^{p} +...+ \left ( \left | x_{n} \right |\right )^{p} \right )^{\frac{1}{p}}

该方法主要应用于文本分类和聚类中。例如,对于两个TF-IDF向量的l2-norm进行点积,就可以得到这两个向量的余弦相似性。

实现SciKit-Learn有两种不同的实现方式:

  • 可以使用preprocessing.normalize()函数对指定数据进行转换:
>>> X = [[ 1., -1.,  2.],
...      [ 2.,  0.,  0.],
...      [ 0.,  1., -1.]]
>>> X_normalized = preprocessing.normalize(X, norm='l2')>>> X_normalized
array([[ 0.40..., -0.40...,  0.81...],[ 1.  ...,  0.  ...,  0.  ...],[ 0.  ...,  0.70..., -0.70...]])
  • 可以使用processing.Normalizer()类实现对训练集和测试集的拟合和转换:
>>> normalizer = preprocessing.Normalizer().fit(X)  # fit does nothing
>>> normalizer
Normalizer(copy=True, norm='l2')>>>
>>> normalizer.transform(X)
array([[ 0.40..., -0.40...,  0.81...],[ 1.  ...,  0.  ...,  0.  ...],[ 0.  ...,  0.70..., -0.70...]])>>> normalizer.transform([[-1.,  1., 0.]])
array([[-0.70...,  0.70...,  0.  ...]])

相关资料:

  • http://blog.csdn.net/solomon1558/article/details/44689611

本系列文章为原创,转载请注明出处。
作者:Tom Bai
邮箱: baidongdong@nudt.edu

若您觉得本博文对您有帮助,请您为我点赞并关注我,以鼓励我写出更优秀的博文。谢谢!

Normalization(标准化)的原理和实现详解相关推荐

  1. 人脸识别SeetaFace2原理与代码详解

    人脸识别SeetaFace2原理与代码详解 前言 一.人脸识别步骤 二.SeetaFace2基本介绍 三.seetaFace2人脸注册.识别代码详解 3.1 人脸注册 3.1.1 人脸检测 3.1.2 ...

  2. batchnorm原理及代码详解

    转载自:http://www.ishenping.com/ArtInfo/156473.html batchnorm原理及代码详解 原博文 原微信推文 见到原作者的这篇微信小文整理得很详尽.故在csd ...

  3. python的编程模式-Python设计模式之状态模式原理与用法详解

    本文实例讲述了Python设计模式之状态模式原理与用法.分享给大家供大家参考,具体如下: 状态模式(State Pattern):当一个对象的内在状态改变时允许改变其行为,这个对象看起来像是改变了其类 ...

  4. DeepLearning tutorial(1)Softmax回归原理简介+代码详解

    FROM: http://blog.csdn.net/u012162613/article/details/43157801 DeepLearning tutorial(1)Softmax回归原理简介 ...

  5. DeepLearning tutorial(3)MLP多层感知机原理简介+代码详解

    FROM:http://blog.csdn.net/u012162613/article/details/43221829 @author:wepon @blog:http://blog.csdn.n ...

  6. DeepLearning tutorial(4)CNN卷积神经网络原理简介+代码详解

    FROM: http://blog.csdn.net/u012162613/article/details/43225445 DeepLearning tutorial(4)CNN卷积神经网络原理简介 ...

  7. Nginx(二):反向代理原理 与 配置文件详解

    相关阅读: Nginx(一):Nginx原理概述 与 安装步骤详解 Nginx(二):反向代理原理 与 配置文件详解 Nginx(三):负载均衡策略 与 Nginx静态服务器 Nginx(四):Ngi ...

  8. java linkedlist实例_Java Linkedlist原理及实例详解

    这篇文章主要介绍了Java Linkedlist原理及实例详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 定义:linkedlist属于链表结构 ...

  9. 【多元域除法】多项式除法电路原理及MATLAB详解

    关注公号[逆向通信猿]更精彩!!! 关于二元域上的两个元素的加法和乘法.多项式除法,在之前的博客 [有限域除法]二元多项式除法电路原理及MATLAB详解 子程序:sub_poly_div.m [有限域 ...

最新文章

  1. R语言如何将字符串转变为命令执行
  2. cakephp对数据库的增删改查
  3. error: declaration of 'cv::Mat R ' shadows a parameter
  4. 设计模式----2(简单工厂模式的概念,简单工厂模式的实现,简单工厂模式的优缺点)
  5. 学习:SQL Server的BUILTIN\Administrators用户
  6. elman神经网络 python实现_Rust 能取代 Python,更好的实现神经网络?
  7. 机器学习基础(二十)—— 数学语言与 Python 代码
  8. 图说Python菜鸟版:第18章 JSON文件解析
  9. 迅雷 华为 手机 php,荣耀路由Pro怎么用手机远程下载迅雷任务
  10. 【命令】Java调用Windows运行命令打开\关闭软键盘
  11. 单片机工程师如何继续提升自己?
  12. “百度杯”CTF比赛 十一月场Mangager
  13. 获取浏览器窗口高度和宽度兼容IE
  14. 计算机桌面输入法没有了怎么办,电脑的输入法找不到图标了怎么办
  15. mysql中的describe语法详解
  16. 《机器学习(周志华)》 习题5.5答案
  17. 一分钟学会看k线图_教你一分钟怎样学会看k线图(纯干货)
  18. 2022-2028年中国300毫米自动探针台套件市场现状研究分析与发展前景预测报告
  19. OpenCV图像处理专栏九 | 基于直方图的快速中值滤波算法
  20. java gis离线地图_java离线地图web GIS制作

热门文章

  1. jar包、war包和ear包的介绍与区别
  2. 安装jieba库方法
  3. leetcode刷题--辅助工具
  4. 从泡妹妹谈java23种设计模式
  5. [SEEDLabs] Format String Attack Lab
  6. 无人驾驶汽车系统入门(十)——基于运动学模型的模型预测控制
  7. Python-灰度图像增强(持续更新)
  8. 【论文学习笔记-6】立体匹配:MGM(More global matching)和R3SGM(Real-time Raster-Respecting global matching)
  9. 计算机软件选修课选什么好,大学选修课最火的课程 哪个选修课好过
  10. 程设大作业xjb写——魔方复原