机器学习入门3--回归之正则化及评价指标
本系列博客基于温州大学黄海广博士的机器学习课程的笔记,小伙伴们想更详细学习黄博士课程请移步到黄博士的Github、或者机器学习初学者公众号,现在在中国慕课也是可以学习的,内容包括机器学习、深度学习及Python编程,matplotlib、numpy、pandas、sklearn等,资料很详细,要系统学习请移步哦!笔者的博客只是笔记,内容不会十分详细,甚至会有些少错误!
1.正则化
1.1 欠拟合、过拟合
1.2 过拟合解决方案
- 获得更多训练数据:更多的样本让模型学习到更多更有效的特征,减少噪声的影响;
- 降维:丢弃一些不能帮助正确预测的特征;
- 正则化(regularization):保留所有特征,减少参数的大小;
- 集成学习方法:把多个模型集成在一起,降低单一模型的过拟合风险;
1.3 欠拟合解决方案
- 添加新特征:当特征不足或现有特征与样本标签相关性不强时,容易出现欠拟合;通过挖掘组合特征等新的特征,可以得到更好的效果;
- 增加模型复杂度:通过增加模型的复杂度使模型拥有更强的拟合能力;如:在线性模型中增加高次项,在神经网络模型中增加网络层数或神经元个数等;
- 减小正则化系数:正则化是防止过拟合的,当模型出现欠拟合现象时,针对性减小正则化系数来优化模型;
1.4 正则化
- L1正则化:J(ω)=12∑i=1m(h(x(i))−y(i))2+λ∑j=1n∣ωj∣,LassoRegressionL_1正则化:J(\omega)=\frac{1}{2}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2+\lambda\sum_{j=1}^n|\omega_j|,Lasso RegressionL1正则化:J(ω)=21∑i=1m(h(x(i))−y(i))2+λ∑j=1n∣ωj∣,LassoRegression
- L2正则化:J(ω)=12∑i=1m(h(x(i))−y(i))2+λ∑j=1nωj2,RidgeRegressionL_2正则化:J(\omega)=\frac{1}{2}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2+\lambda\sum_{j=1}^n\omega_j^2,Ridge RegressionL2正则化:J(ω)=21∑i=1m(h(x(i))−y(i))2+λ∑j=1nωj2,RidgeRegression
- ElasticNet:Elastic Net:ElasticNet:
J(ω)=12∑i=1m(h(x(i))−y(i))2+λ(ρ⋅∑j=1n∣ωj∣+(1−ρ)⋅∑j=1nωj2)J(\omega)=\frac{1}{2}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2+\lambda(\rho·\sum_{j=1}^n|\omega_j|+(1-\rho)·\sum_{j=1}^n\omega_j^2)J(ω)=21i=1∑m(h(x(i))−y(i))2+λ(ρ⋅j=1∑n∣ωj∣+(1−ρ)⋅j=1∑nωj2) - 其中:λ:正则化系数,调整正则化项与训练误差的比例,λ>0;ρ:比例系数,调整L1正则化与L2正则化比例,0≤ρ≤1;其中:\\ \lambda:正则化系数,调整正则化项与训练误差的比例,\lambda>0;\\ \rho:比例系数,调整L_1正则化与L_2正则化比例,0≤\rho≤1;其中:λ:正则化系数,调整正则化项与训练误差的比例,λ>0;ρ:比例系数,调整L1正则化与L2正则化比例,0≤ρ≤1;
- 在正则化限制下,L2L_2L2正则化给出的最优解ω∗\omega*ω∗使解更靠近原点,即:L2L_2L2正则化能降低参数范数的总和;
- L1L_1L1正则化给出的最优解ω∗\omega*ω∗使解更靠近某些轴,其他的轴为0,即:L1L_1L1正则化得到参数稀疏化;
2.回归评价指标
2.1 均方误差(Mean Square Error,MSE)
MSE(y,y^)=1m∑i=1m(y(i)−y^(i))2MSE(y,\hat{y}) = \frac{1}{m}\sum_{i=1}^m(y^{(i)}-\hat{y}^{(i)})^2 MSE(y,y^)=m1i=1∑m(y(i)−y^(i))2
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;
2.2 均方根误差(Root Mean Square Error,RMSE)
RMSE(y,y^)=1m∑i=1m(y(i)−y^(i))2RMSE(y,\hat{y})=\sqrt{\frac{1}{m}\sum_{i=1}^m(y^{(i)}-\hat{y}^{(i)})^2} RMSE(y,y^)=m1i=1∑m(y(i)−y^(i))2
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;
2.3 平均绝对误差(Mean Absolute Error,MAE)
MAE(y,y^)=1m∑i=1m∣y(i)−y^(i)∣MAE(y,\hat{y})=\frac{1}{m}\sum_{i=1}^m|y^{(i)}-\hat{y}^{(i)}| MAE(y,y^)=m1i=1∑m∣y(i)−y^(i)∣
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;
2.4 R方(RSquared)
R2(y,y^)=1−∑i=0m(y(i)−y^(i))2∑i=0m(y(i)−y‾)2=SSRSST=1−SSESSTR^2(y,\hat{y})=1-\frac{\sum_{i=0}^m(y^{(i)}-\hat{y}^{(i)})^2}{\sum_{i=0}^m(y^{(i)}-\overline{y})^2}=\frac{SSR}{SST}=1-\frac{SSE}{SST} R2(y,y^)=1−∑i=0m(y(i)−y)2∑i=0m(y(i)−y^(i))2=SSTSSR=1−SSTSSE
R2(y,y^)=1−∑i=0m(y(i)−y^(i))2/m∑i=0m(y(i)−y‾)2/m=1−MSEVarR^2(y,\hat{y})=1-\frac{\sum_{i=0}^m(y^{(i)}-\hat{y}^{(i)})^2/m}{\sum_{i=0}^m(y^{(i)}-\overline{y})^2/m}=1-\frac{MSE}{Var} R2(y,y^)=1−∑i=0m(y(i)−y)2/m∑i=0m(y(i)−y^(i))2/m=1−VarMSE
其中:
SSR=∑i=0m(y^(i)−y‾)2;SSE=∑i=0m(y(i)−y^(i))2;SST=∑i=0m(y(i)−y‾)2;SSR=\sum_{i=0}^m(\hat{y}^{(i)}-\overline{y})^2;SSE=\sum_{i=0}^m({y}^{(i)}-\hat{y}^{(i)})^2; SST=\sum_{i=0}^m({y}^{(i)}-\overline{y})^2; SSR=i=0∑m(y^(i)−y)2;SSE=i=0∑m(y(i)−y^(i))2;SST=i=0∑m(y(i)−y)2;
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;
机器学习入门3--回归之正则化及评价指标相关推荐
- 吴恩达机器学习3——逻辑回归、正则化
机器学习第三周 一.逻辑回归 1. 分类问题 1.1 分类的概念 1.2 使用线性回归来解决分类模型 1.3 逻辑回归模型 1.4 分类边界 2. 逻辑回归模型 logistic regression ...
- 2 机器学习入门——逻辑回归之kaggle泰坦尼克号竞赛
前面几篇逻辑回归的例子有些是人造出来的,有些是比较正规的,但数据都比较完整,没有缺失的属性.虽然我们在很多数据上取到的非常好的效果,但总感觉好像不够味,不像实战. 所有的数据下载地址:https:// ...
- 吴恩达机器学习CS229A_EX2_逻辑回归与正则化_Python3
逻辑回归 问题描述:特征集为学生的两门课的成绩,标签集为是否被大学录取. 说明: 这里调用 scipy 库函数执行梯度下降的具体迭代,不用手动设置步长和迭代次数,但 cost 如何计算.梯度如何求取需 ...
- l2正则化python_机器学习入门之机器学习之路: python线性回归 过拟合 L1与L2正则化...
本文主要向大家介绍了机器学习入门之机器学习之路: python线性回归 过拟合 L1与L2正则化,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助. 正则化: 提高模型在未知数据上的 ...
- [机器学习-5]岭回归及python实现(Ridge Regression)
[机器学习-5]岭回归[L2正则化]及python实现(Ridge Regression)[L2] 前言 题目 岭回归(Ridge Regression) k-fold validation skle ...
- 机器学习入门系列三(关键词:逻辑回归,正则化)
机器学习入门系列三(关键词:逻辑回归,正则化) 目录(?)[+] 一逻辑回归 逻辑回归 假设表示 决策边界 代价函数 其他优化方法 多元分类 二正则化 一.逻辑回归 1.逻辑回归 什么是逻辑回归问题, ...
- 机器学习算法大汇总--线性回归、逻辑回归、正则化、神经网络、SVM、K-Means、PCA、集成学习等!
本文很长~请耐心观看 另:本文主要用于本人的复习使用,欢迎大佬的指正和添加. 还有:本人也只是初出茅庐,希望大佬手下留情,谢谢!! 1.算法分类 机器学习算法分为: 有监督,无监督 两大阵营 1.有监 ...
- 机器学习入门学习笔记:(2.3)对数几率回归推导
理论推导 在以前的博客(机器学习入门学习笔记:(2.1)线性回归理论推导 )中推导了单元线性回归和多元线性回归的模型. 将线性回归模型简写为:y=ωTx+by = \omega^Tx+b: ...
- (视频+图文)机器学习入门系列-第3章 逻辑回归
机器学习入门系列,黄海广老师主讲.本站将持续更新,ppt.代码.课后习题见文末. 本系列的目录 01.引言 02.回归 03.逻辑回归 04.朴素贝叶斯 05.机器学习实践 06.机器学习库Sciki ...
最新文章
- 浅谈分布式计算的开发与实现(一)
- go iris 连接 mysql 异步_go语言解决并发的方法有哪些?
- git 怎么备份本地分支_Git常用个人备份笔记
- 通用权限实现的核心设计思想
- 多功能视频光端机_多业务光端机的功能特性
- 【1】Docker概述
- 小米:近期发现5件恶意抢注批量申请Redmi商标事件
- Elasticseach 从零开始学习记录(三) - 分布式部署
- JAVA 获取系统环境变量
- Python pandas读取excel单元格数据,显示不全问题
- 一些可以参考的文档集合9
- 在“绝世武功的目录”RTR4中译版出版前,先奉上“绝世武功秘籍的本体”
- 工作流之通用数据表设计
- PTA:宿舍谁最高?
- CDH部署完成后启动失败的解决方案
- BI的作用,体现在企业的哪些方面
- PAT (Basic Level) Practise (中文) 1004成绩排名(20)
- DW1000的温度补偿及基站,标签天线延迟校准(三)
- CMS爱好者如何模仿目标站
- 急切呼唤一线直接决策