机器学习回归(regression)——线性回归(Hung-yi Lee)
文章目录
- 前言
- 回归三步走
- Step1 define a set of function
- Step2 goodness of function
- Step3 pick the best function
- 实验结果分析
前言
机器学习可简单分为监督学习和非监督学习。从下图也可以看出来,分类和回归属于监督学习,聚类和降维属于非监督学习。而回归又是大多数机器学习学习者最先接触的任务,本文主要讲述线性回归,作为一个学习笔记。
监督学习:
给定一组训练数据,通常是( x 1 x^1 x1, y 1 y^1 y1),( x 2 x^2 x2, y 2 y^2 y2),( x 3 x^3 x3, y 3 y^3 y3) ⋯ \cdots ⋯,其中y是标签, x m x^m xm=( x 1 m x_1^m x1m, x 2 m x_2^m x2m, x 3 m x_3^m x3m ⋯ \cdots ⋯)是第m个数据对应的特征,通常是一个向量。
回归模型是有监督模型的一种,线性回归是回归模型的一种。线性表示f是关于x的线性函数;回归表示y是一个连续的标量值
回归三步走
Step1 define a set of function
基于训练数据定义一个预测函数(模型)
问题描述:(还是拿李老师的课件来讲吧)
预测一只pokemon进化后的CP值即y(combat power,战斗力),可能影响因素有进化前的CP值 x x xcp,属于物种类别 x s x_s xs,生命值 x x xhp,体重 x w x_w xw,身高 x h x_h xh。
暂且只考虑 x x xcp,因为是线性回归,则可以假设y与 x x xcp之间的function是 y = w ∗ x c p + b y=w*x_{cp}+b y=w∗xcp+b
其中w和b都是参数,则可能有
f 1 : y = 10.0 ∗ x c p + 9.0 f1:y=10.0*x_{cp}+9.0 f1:y=10.0∗xcp+9.0
f 2 : y = − 0.8 ∗ x c p − 1.2 f2:y=-0.8*x_{cp}-1.2 f2:y=−0.8∗xcp−1.2
等,即线性回归的一般函数是: y = b + ∑ w i x i y=b+\sum{w_ix_i} y=b+∑wixi
Step2 goodness of function
评判选择函数(模型)的好坏,此时定义一个loss function L ( w , b ) = ∑ n = 1 10 ( y ^ n − f ( x c p n ) ) 2 L(w,b)=\sum_{n=1}^{10}(\hat{y}^n-f(x_{cp}^n))^2 L(w,b)=n=1∑10(y^n−f(xcpn))2 其中 y ^ \hat{y} y^是真实值, f ( x c p n ) = w ∗ x c p n + b f(x_{cp}^n)=w*x_{cp}^n+b f(xcpn)=w∗xcpn+b,loss的含义即每一项真实值与每一项预测值的差。
Step3 pick the best function
选择最好的模型,即最优化问题:
f ∗ = a r g min f L ( w , b ) f^*=arg \min\limits_{f} L(w,b) f∗=argfminL(w,b), w ∗ , b ∗ = a r g min w , b L ( w , b ) w^*,b^*=arg \min\limits_{w,b} L(w,b) w∗,b∗=argw,bminL(w,b)
先考虑优化一个参数(如w),则利用梯度下降的方法:
1.随机选取一个初值 w 0 w^0 w0
2. 计算此处的梯度值 d l d w ∣ w = w 0 \frac{dl}{dw}|_{w=w^0} dwdl∣w=w0
3. 迭代更新参数, w 1 = w 0 − η ∗ d l d w ∣ w = w 0 w^1=w^0-\eta*\frac{dl}{dw}|_{w=w^0} w1=w0−η∗dwdl∣w=w0,即需要朝着梯度的方向前进,其中 η \eta η也被称之为学习率(learning rate)
接下来一直更新参数,直到找到梯度为零的点。
可以看到实际情况中可能存在局部最小点和全局最优点,所以梯度下降有可能不能找到全局最小点(梯度为0迭代就停止了),但就线性规划来说不用担心这个问题(线性规划的loss是凸函数)
如果是两个参数也是一样, w 1 = w 0 − η ∗ d l d w ∣ w = w 0 , b = b 0 w^1=w^0-\eta*\frac{dl}{dw}|_{w=w^0,b=b^0} w1=w0−η∗dwdl∣w=w0,b=b0, b 1 = b 0 − η ∗ d l d b ∣ w = w 0 , b = b 0 b^1=b^0-\eta*\frac{dl}{db}|_{w=w^0,b=b^0} b1=b0−η∗dbdl∣w=w0,b=b0。此时可以从看成一个平面某处走向最低点。
总结一下,线性规划就是利用梯度下降法找到合适的参数让loss函数最小,可以简写成
θ ∗ = a r g max θ L ( θ ) \theta^*=arg \max\limits_\theta L(\theta) θ∗=argθmaxL(θ), θ = ( w , b , ⋯ ) \theta=(w,b,\cdots) θ=(w,b,⋯)
实验结果分析
利用十组训练集得出结果( y = b + w ∗ x c p y=b+w*x_{cp} y=b+w∗xcp)
解得w=2.7,b=-188.4,此时训练集上的平均误差是31.9,测试集上的误差是35.0,显然误差较大,那怎么做才可以让误差更小呢——换函数(模型)
函数(模型) | 训练集上的error | 测试集上的error |
---|---|---|
y = b + w ∗ x c p y=b+w*x_{cp} y=b+w∗xcp | 31.9 | 35.0 |
y = b + w 1 ∗ x c p + w 2 ∗ x c p 2 y=b+w_1*x_{cp}+w_2*x_{cp}^2 y=b+w1∗xcp+w2∗xcp2 | 15.4 | 18.4 |
y = b + w 1 ∗ x c p + w 2 ∗ x c p 2 + w 3 ∗ x c p 3 y=b+w_1*x_{cp}+w_2*x_{cp}^2+w_3*x_{cp}^3 y=b+w1∗xcp+w2∗xcp2+w3∗xcp3 | 15.3 | 18.1 |
y = b + w 1 ∗ x c p + w 2 ∗ x c p 2 + w 3 ∗ x c p 3 + w 4 ∗ x c p 4 + w 5 ∗ x c p 5 y=b+w_1*x_{cp}+w_2*x_{cp}^2+w_3*x_{cp}^3+w_4*x_{cp}^4+w_5*x_{cp}^5 y=b+w1∗xcp+w2∗xcp2+w3∗xcp3+w4∗xcp4+w5∗xcp5 | 12.8 | 232.1 |
可以看出,随着模型越来越复杂,训练集误差一直再减小,但是测试集一开始在减小,之后却反而增大。此时模型产生了过拟合(overfitting)
也就是说:
A more complex model yields lower error on training data;
A more complex model does not always lead to better performance on testing data
解决过拟合的两种方式:
1.重新设计函数(模型)
可以考虑更多的因素,在一开始只考虑了进化前的CP值对进化后的CP值的影响,现在探索是不是还有其他因素,例如 x h p x_{hp} xhp, x h x_h xh, x w x_w xw等,将这些因素也考虑进去。
2.在设计loss函数时,进行正则化
L ( w , b ) = ∑ n ( y ^ n − ( w i ∗ x i n + b ) ) 2 + λ ∑ ( w i ) 2 L(w,b)=\sum_{n}(\hat{y}^n-(w_i*x_i^n+b))^2+\lambda\sum(w_i)^2 L(w,b)=n∑(y^n−(wi∗xin+b))2+λ∑(wi)2
这可以让loss函数更平滑(smooth),这样可以让输出对于输入的变化不是那么敏感。
机器学习回归(regression)——线性回归(Hung-yi Lee)相关推荐
- 机器学习——回归——一元线性回归
目录 理论部分 1.1 回归问题 1.2 回归问题分类 1.3 线性回归 1.4 一元线性回归 1.4.1 基本形式 1.4.2 损失函数 1.4.3 训练集与测试集 1.4.4 学习目标 1.4.5 ...
- Python机器学习--回归算法--线性回归
线性回归算法的类型 有监督学习的回归算法[标签是连续数据类型] 线性回归基础 研究父子身高关系 研究父辈身高(自变量x)如何决定子辈身高(因变量y) 建立方程表征关系:y = kx+b-------- ...
- Python机器学习--回归算法--线性回归算法
线性回归算法 线性回归算法类型: 线性回归算法属于有监督学习的回归算法,可以处理标签为连续数据类型的数据. 线性回归算法原理: 通过寻找特征和标签之间的关系,生成一个线性方程,通过线性方程预测未知标签 ...
- 回归- Regression
回归- Regression ------------------------------------------ 回归- Regression 线性回归Linear regression 模型表示M ...
- 机器学习之回归(Regression)再理解
文章目录 一 前言引入 1. 回归定义及应用场景 2. 解决步骤 3. 过拟合和解决方法 二 回归问题再理解 1. 问题提出 2. 问题解决 三 结束语 一 前言引入 1. 回归定义及应用场景 ...
- R语言caret包构建机器学习回归模型(regression model)、使用DALEX包进行模型解释分析、特征重要度、偏依赖分析等
R语言caret包构建机器学习回归模型(regression model).使用DALEX包进行模型解释分析.特征重要度.偏依赖分析等 目录
- 局部加权线性回归(Local Weighted Linear Regression)+局部加权回归+局部线性回归
局部加权线性回归(Local Weighted Linear Regression)+局部加权回归+局部线性回归 locally weighted scatterplot smoothing,LOWE ...
- 机器学习之多变量线性回归(Linear Regression with multiple variables)
机器学习之多变量线性回归(Linear Regression with multiple variables) 1. Multiple features(多维特征) 在机器学习之单变量线性回归(Lin ...
- 机器学习 回归篇(1)——多元线性回归
机器学习 回归篇(1)--多元线性回归 摘要 线性回归简介 python实现 运行结果及可视化 摘要 本文介绍了最基础的回归问题--多元线性回归,并通过python进行实现及可视化展示运行结果. 线性 ...
- 机器学习算法总结--线性回归和逻辑回归
1. 线性回归 简述 在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析.这种函数是一个或多个称为回 ...
最新文章
- CSDN 厦门大学线下编程比赛第一题:求和(同余定理)
- 未来教育计算机二级为什么分数很低,计算机二级考试失分了却不知道为什么?...
- 超牛逼的异步协程爬虫
- cv2 python3.5 linux,ubuntu 16.04 安装 opencv3.2.0 with python 3.5
- LiveVideoStackCon讲师热身分享 ( 九 ) —— 51Talk音视频技术思考及非典型挑战
- getContentResolver().query()方法selection参数使用详解(转)
- 【渝粤教育】国家开放大学2018年春季 0599-22T工程造价管理基础理论与相关法规 参考试题
- Kylin3.1.3连接Hbase报错找不到 hbase-common lib not found的解决办法
- python学习方法_十二种学习Python的方法
- 中国数字血压计市场趋势报告、技术动态创新及市场预测
- Bootstrap Wizard 多步表单控件
- 【ACM夏训】综合训练赛
- VMware虚拟机不能连接USB的问题
- python内置函数用来打开或创建文件并返回文件对象_python内置函数
- ubuntu 下 Aircrack 破解wifi密码(wpa/wpa2)
- [FAQ06649] Latin输入法怎么默认勾选几种语言?
- 一个星期内怎样学会微信公众号运营?
- Arithmetic Slices 算术序列
- split和ubound函数的用法
- 使用计算机连接bmcc,【供应BMCC EF-摄影机(2.5K,13档动态范围,RAW格式,EF口)】价格_厂家 - 中国供应商...
热门文章
- 简单最短路径问题编程c语言,最短路径动态规划问题及C语言_实现.pdf
- stm32F407-------RTC实时时钟
- 【Java Se】集合框架
- 【HTML+CSS(六)】
- 阿里云IoT物联网平台
- so文件反编译为python代码_【反编译系列】四、反编译so文件(IDA_Pro)
- 工业基础类IFC—开源库汇总
- windows网络编程——telnet协议
- 蓝桥杯 ADV-166算法提高 聪明的美食家(java)
- zabbix之Disk I/O is overloaded on {HOST.NAME}问题排查