本系列博客基于温州大学黄海广博士的机器学习课程的笔记,小伙伴们想更详细学习黄博士课程请移步到黄博士的Github、或者机器学习初学者公众号,现在在中国慕课也是可以学习的,内容包括机器学习、深度学习及Python编程,matplotlib、numpy、pandas、sklearn等,资料很详细,要系统学习请移步哦!笔者的博客只是笔记,内容不会十分详细,甚至会有些少错误!



1.正则化

1.1 欠拟合、过拟合

1.2 过拟合解决方案

  1. 获得更多训练数据:更多的样本让模型学习到更多更有效的特征,减少噪声的影响;
  2. 降维:丢弃一些不能帮助正确预测的特征;
  3. 正则化(regularization):保留所有特征,减少参数的大小;
  4. 集成学习方法:把多个模型集成在一起,降低单一模型的过拟合风险;

1.3 欠拟合解决方案

  1. 添加新特征:当特征不足或现有特征与样本标签相关性不强时,容易出现欠拟合;通过挖掘组合特征等新的特征,可以得到更好的效果;
  2. 增加模型复杂度:通过增加模型的复杂度使模型拥有更强的拟合能力;如:在线性模型中增加高次项,在神经网络模型中增加网络层数或神经元个数等;
  3. 减小正则化系数:正则化是防止过拟合的,当模型出现欠拟合现象时,针对性减小正则化系数来优化模型;

1.4 正则化

  1. L1正则化:J(ω)=12∑i=1m(h(x(i))−y(i))2+λ∑j=1n∣ωj∣,LassoRegressionL_1正则化:J(\omega)=\frac{1}{2}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2+\lambda\sum_{j=1}^n|\omega_j|,Lasso RegressionL1​正则化:J(ω)=21​∑i=1m​(h(x(i))−y(i))2+λ∑j=1n​∣ωj​∣,LassoRegression
  2. L2正则化:J(ω)=12∑i=1m(h(x(i))−y(i))2+λ∑j=1nωj2,RidgeRegressionL_2正则化:J(\omega)=\frac{1}{2}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2+\lambda\sum_{j=1}^n\omega_j^2,Ridge RegressionL2​正则化:J(ω)=21​∑i=1m​(h(x(i))−y(i))2+λ∑j=1n​ωj2​,RidgeRegression
  3. ElasticNet:Elastic Net:ElasticNet:
    J(ω)=12∑i=1m(h(x(i))−y(i))2+λ(ρ⋅∑j=1n∣ωj∣+(1−ρ)⋅∑j=1nωj2)J(\omega)=\frac{1}{2}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2+\lambda(\rho·\sum_{j=1}^n|\omega_j|+(1-\rho)·\sum_{j=1}^n\omega_j^2)J(ω)=21​i=1∑m​(h(x(i))−y(i))2+λ(ρ⋅j=1∑n​∣ωj​∣+(1−ρ)⋅j=1∑n​ωj2​)
  4. 其中:λ:正则化系数,调整正则化项与训练误差的比例,λ>0;ρ:比例系数,调整L1正则化与L2正则化比例,0≤ρ≤1;其中:\\ \lambda:正则化系数,调整正则化项与训练误差的比例,\lambda>0;\\ \rho:比例系数,调整L_1正则化与L_2正则化比例,0≤\rho≤1;其中:λ:正则化系数,调整正则化项与训练误差的比例,λ>0;ρ:比例系数,调整L1​正则化与L2​正则化比例,0≤ρ≤1;

  • 在正则化限制下,L2L_2L2​正则化给出的最优解ω∗\omega*ω∗使解更靠近原点,即:L2L_2L2​正则化能降低参数范数的总和;
  • L1L_1L1​正则化给出的最优解ω∗\omega*ω∗使解更靠近某些轴,其他的轴为0,即:L1L_1L1​正则化得到参数稀疏化;

2.回归评价指标

2.1 均方误差(Mean Square Error,MSE)

MSE(y,y^)=1m∑i=1m(y(i)−y^(i))2MSE(y,\hat{y}) = \frac{1}{m}\sum_{i=1}^m(y^{(i)}-\hat{y}^{(i)})^2 MSE(y,y^​)=m1​i=1∑m​(y(i)−y^​(i))2
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^​(i)分别表示第i个样本的真实值和与预测值,m为样本个数;

2.2 均方根误差(Root Mean Square Error,RMSE)

RMSE(y,y^)=1m∑i=1m(y(i)−y^(i))2RMSE(y,\hat{y})=\sqrt{\frac{1}{m}\sum_{i=1}^m(y^{(i)}-\hat{y}^{(i)})^2} RMSE(y,y^​)=m1​i=1∑m​(y(i)−y^​(i))2​
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^​(i)分别表示第i个样本的真实值和与预测值,m为样本个数;

2.3 平均绝对误差(Mean Absolute Error,MAE)

MAE(y,y^)=1m∑i=1m∣y(i)−y^(i)∣MAE(y,\hat{y})=\frac{1}{m}\sum_{i=1}^m|y^{(i)}-\hat{y}^{(i)}| MAE(y,y^​)=m1​i=1∑m​∣y(i)−y^​(i)∣
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^​(i)分别表示第i个样本的真实值和与预测值,m为样本个数;

2.4 R方(RSquared)

R2(y,y^)=1−∑i=0m(y(i)−y^(i))2∑i=0m(y(i)−y‾)2=SSRSST=1−SSESSTR^2(y,\hat{y})=1-\frac{\sum_{i=0}^m(y^{(i)}-\hat{y}^{(i)})^2}{\sum_{i=0}^m(y^{(i)}-\overline{y})^2}=\frac{SSR}{SST}=1-\frac{SSE}{SST} R2(y,y^​)=1−∑i=0m​(y(i)−y​)2∑i=0m​(y(i)−y^​(i))2​=SSTSSR​=1−SSTSSE​
R2(y,y^)=1−∑i=0m(y(i)−y^(i))2/m∑i=0m(y(i)−y‾)2/m=1−MSEVarR^2(y,\hat{y})=1-\frac{\sum_{i=0}^m(y^{(i)}-\hat{y}^{(i)})^2/m}{\sum_{i=0}^m(y^{(i)}-\overline{y})^2/m}=1-\frac{MSE}{Var} R2(y,y^​)=1−∑i=0m​(y(i)−y​)2/m∑i=0m​(y(i)−y^​(i))2/m​=1−VarMSE​
其中:
SSR=∑i=0m(y^(i)−y‾)2;SSE=∑i=0m(y(i)−y^(i))2;SST=∑i=0m(y(i)−y‾)2;SSR=\sum_{i=0}^m(\hat{y}^{(i)}-\overline{y})^2;SSE=\sum_{i=0}^m({y}^{(i)}-\hat{y}^{(i)})^2; SST=\sum_{i=0}^m({y}^{(i)}-\overline{y})^2; SSR=i=0∑m​(y^​(i)−y​)2;SSE=i=0∑m​(y(i)−y^​(i))2;SST=i=0∑m​(y(i)−y​)2;
其中:y(i)和y^(i)分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y^{(i)}和\hat{y}^{(i)}分别表示第i个样本的真实值和与预测值,m为样本个数;其中:y(i)和y^​(i)分别表示第i个样本的真实值和与预测值,m为样本个数;

机器学习入门3--回归之正则化及评价指标相关推荐

  1. 吴恩达机器学习3——逻辑回归、正则化

    机器学习第三周 一.逻辑回归 1. 分类问题 1.1 分类的概念 1.2 使用线性回归来解决分类模型 1.3 逻辑回归模型 1.4 分类边界 2. 逻辑回归模型 logistic regression ...

  2. 2 机器学习入门——逻辑回归之kaggle泰坦尼克号竞赛

    前面几篇逻辑回归的例子有些是人造出来的,有些是比较正规的,但数据都比较完整,没有缺失的属性.虽然我们在很多数据上取到的非常好的效果,但总感觉好像不够味,不像实战. 所有的数据下载地址:https:// ...

  3. 吴恩达机器学习CS229A_EX2_逻辑回归与正则化_Python3

    逻辑回归 问题描述:特征集为学生的两门课的成绩,标签集为是否被大学录取. 说明: 这里调用 scipy 库函数执行梯度下降的具体迭代,不用手动设置步长和迭代次数,但 cost 如何计算.梯度如何求取需 ...

  4. l2正则化python_机器学习入门之机器学习之路: python线性回归 过拟合 L1与L2正则化...

    本文主要向大家介绍了机器学习入门之机器学习之路: python线性回归 过拟合 L1与L2正则化,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助. 正则化:    提高模型在未知数据上的 ...

  5. [机器学习-5]岭回归及python实现(Ridge Regression)

    [机器学习-5]岭回归[L2正则化]及python实现(Ridge Regression)[L2] 前言 题目 岭回归(Ridge Regression) k-fold validation skle ...

  6. 机器学习入门系列三(关键词:逻辑回归,正则化)

    机器学习入门系列三(关键词:逻辑回归,正则化) 目录(?)[+] 一逻辑回归 逻辑回归 假设表示 决策边界 代价函数 其他优化方法 多元分类 二正则化 一.逻辑回归 1.逻辑回归 什么是逻辑回归问题, ...

  7. 机器学习算法大汇总--线性回归、逻辑回归、正则化、神经网络、SVM、K-Means、PCA、集成学习等!

    本文很长~请耐心观看 另:本文主要用于本人的复习使用,欢迎大佬的指正和添加. 还有:本人也只是初出茅庐,希望大佬手下留情,谢谢!! 1.算法分类 机器学习算法分为: 有监督,无监督 两大阵营 1.有监 ...

  8. 机器学习入门学习笔记:(2.3)对数几率回归推导

    理论推导   在以前的博客(机器学习入门学习笔记:(2.1)线性回归理论推导 )中推导了单元线性回归和多元线性回归的模型.   将线性回归模型简写为:y=ωTx+by = \omega^Tx+b:   ...

  9. (视频+图文)机器学习入门系列-第3章 逻辑回归

    机器学习入门系列,黄海广老师主讲.本站将持续更新,ppt.代码.课后习题见文末. 本系列的目录 01.引言 02.回归 03.逻辑回归 04.朴素贝叶斯 05.机器学习实践 06.机器学习库Sciki ...

最新文章

  1. 浅谈分布式计算的开发与实现(一)
  2. go iris 连接 mysql 异步_go语言解决并发的方法有哪些?
  3. git 怎么备份本地分支_Git常用个人备份笔记
  4. 通用权限实现的核心设计思想
  5. 多功能视频光端机_多业务光端机的功能特性
  6. 【1】Docker概述
  7. 小米:近期发现5件恶意抢注批量申请Redmi商标事件
  8. Elasticseach 从零开始学习记录(三) - 分布式部署
  9. JAVA 获取系统环境变量
  10. Python pandas读取excel单元格数据,显示不全问题
  11. 一些可以参考的文档集合9
  12. 在“绝世武功的目录”RTR4中译版出版前,先奉上“绝世武功秘籍的本体”
  13. 工作流之通用数据表设计
  14. PTA:宿舍谁最高?
  15. CDH部署完成后启动失败的解决方案
  16. BI的作用,体现在企业的哪些方面
  17. PAT (Basic Level) Practise (中文) 1004成绩排名(20)
  18. DW1000的温度补偿及基站,标签天线延迟校准(三)
  19. CMS爱好者如何模仿目标站
  20. 急切呼唤一线直接决策

热门文章

  1. 低层次特征提取(一)------------边缘检测(转载)
  2. html做帧动画,AE免费教程:简单几步做出帧动画效果
  3. 面向对象解决-------求圆柱体的体积
  4. 震惊!如果患上植物神经紊乱,就会诱发胃肠神经功能紊乱!
  5. 财务工作人员的实在助手,属于你的RPA神器
  6. PowerBI系列之入门案例动态销售报告
  7. 蓝桥-受伤的皇后-java
  8. 为什么苹果在德国遵守禁售令,在中国却不用?
  9. 《华仪酒店管理系统》项目研发阶段性总结
  10. 计算机毕业论文设计动画,计算机动画