一元线性回归公式推导及证明

回归方程的架构

对于二维数据(xi,yi)(x_{i},y_{i})(xi​,yi​)进行建模,通过回归方程yi=β0+β1xi+uy_{i}=\beta_{0}+\beta_{1}x_{i}+uyi​=β0​+β1​xi​+u描述其数据关系。求该方程需要获取未知参数β0^\hat{\beta_0}β0​^​和β1^\hat{\beta_1}β1​^​

有以下两种方式可以推导参数的解法

证明1.1矩估计求解β0^\hat{\beta_0}β0​^​和β1^\hat{\beta_1}β1​^​

矩估计方法依赖于零条件均值假设:E(u∣x)=0E(u|x)=0E(u∣x)=0该假设的意思是给定xxx,通过回归方程所得的y^\hat{y}y^​与实际yyy的误差,平均值为0。也就是说因果关系上,yyy只受到β0\beta_0β0​和β1\beta_1β1​的影响。

根据零条件均值可以推出两个公式。E(u)=E(E(u∣x))=0cov(x,u)=E(xu)−E(x)E(u)=E(xu)=E(E(xu∣x))=E(xE(u∣x))=0\begin{equation*} \begin{aligned} E(u)&=E(E(u|x))=0\\ \end{aligned} \end{equation*}\\ \begin{equation*} \begin{aligned} cov(x,u)&=E(xu)-E(x)E(u)\\ &=E(xu)\\ &=E(E(xu|x))\\ &=E(xE(u|x))\\ &=0 \end{aligned}\end{equation*} E(u)​=E(E(u∣x))=0​​cov(x,u)​=E(xu)−E(x)E(u)=E(xu)=E(E(xu∣x))=E(xE(u∣x))=0​​ 这是求解未知参数的关键。

另外已知
yi=β0+β1x+u=====yˉ=β0+β1xˉ+uˉ=====;\begin{equation*} \begin{split} y_i&=\beta_0+\beta_1x+u\phantom{\;=====\;}\tag{1}\\ \end{split} \end{equation*} \\\begin{equation*} \begin{split} \bar{y}&=\beta_0+\beta_1\bar{x}+\bar{u}\phantom{\;=====;\;}\tag{2} \end{split} \end{equation*}yi​​=β0​+β1​x+u=====​​(1)​yˉ​​=β0​+β1​xˉ+uˉ=====;​​(2)​
由(1)−(2)(1)-(2)(1)−(2)得yi−yˉ=β1(x−xˉ)+(u−uˉ)(x−xˉ)(yi−yˉ)=β1(x−xˉ)2+(u−uˉ)(x−xˉ)\begin{equation*} \begin{split} y_i-\bar{y}=\beta_1(x-\bar{x})+(u-\bar{u}) \end{split} \end{equation*}\\ \begin{equation*} \begin{split} (x-\bar{x})(y_i-\bar{y})=\beta_1(x-\bar{x})^2+(u-\bar{u})(x-\bar{x}) \end{split} \end{equation*}yi​−yˉ​=β1​(x−xˉ)+(u−uˉ)​​(x−xˉ)(yi​−yˉ​)=β1​(x−xˉ)2+(u−uˉ)(x−xˉ)​​
遍历所有的i=1,2,3....i=1,2,3....i=1,2,3....,并求和1N∑i=1N(x−xˉ)(yi−yˉ)=1N∑i=1Nβ1(x−xˉ)2+1N∑i=1N(u−uˉ)(x−xˉ)\begin{equation*} \begin{split} \frac{1}{N}\sum_{i=1}^N(x-\bar{x})(y_i-\bar{y})=\frac{1}{N}\sum_{i=1}^N\beta_1(x-\bar{x})^2+\frac{1}{N}\sum_{i=1}^N(u-\bar{u})(x-\bar{x}) \end{split} \end{equation*} N1​i=1∑N​(x−xˉ)(yi​−yˉ​)=N1​i=1∑N​β1​(x−xˉ)2+N1​i=1∑N​(u−uˉ)(x−xˉ)​​由于cov(x,u)=0cov(x,u)=0cov(x,u)=0,因此1N∑i=1N(u−uˉ)(x−xˉ)=0\frac{1}{N}\sum_{i=1}^N(u-\bar{u})(x-\bar{x})=0N1​∑i=1N​(u−uˉ)(x−xˉ)=0。从而得到∑i=1N(x−xˉ)(yi−yˉ)=∑i=1Nβ1(x−xˉ)2β1^=∑i=1N(x−xˉ)(yi−yˉ)∑i=1N(x−xˉ)2=cov(x,y)var(x)\begin{equation*} \begin{split} \sum_{i=1}^N(x-\bar{x})(y_i-\bar{y})&=\sum_{i=1}^N\beta_1(x-\bar{x})^2 \\ \hat{\beta_1}&=\frac{\sum_{i=1}^N(x-\bar{x})(y_i-\bar{y})}{\sum_{i=1}^N(x-\bar{x})^2} \\&=\frac{cov(x,y)}{var(x)} \end{split} \end{equation*} i=1∑N​(x−xˉ)(yi​−yˉ​)β1​^​​=i=1∑N​β1​(x−xˉ)2=∑i=1N​(x−xˉ)2∑i=1N​(x−xˉ)(yi​−yˉ​)​=var(x)cov(x,y)​​​再由式子(1)(1)(1)得β0^=yˉ−β1^xˉ\hat{\beta_0}=\bar{y}-\hat{\beta_1}\bar{x}β0​^​=yˉ​−β1​^​xˉ

证明1.2 普通最小二乘法(OLS)求解β0^\hat{\beta_0}β0​^​和β1^\hat{\beta_1}β1​^​

简单的说,我们的任务就是找到使均方误差最小的β0\beta_0β0​和β1\beta_1β1​。数学表达式如下:minβ1^,β0^1N∑i=1N(u^i−uˉ)2=minβ1^,β0^1N∑i=1N(u^i)2=minβ1^,β0^1N∑i=1N(yi−β0^−β1^xi)2\begin{equation*} \begin{split} \mathop{min}\limits_{\hat{\beta_1},\hat{\beta_0}}\frac{1}{N}\sum_{i=1}^N(\hat{u}_i-\bar{u})^2 &=\mathop{min}\limits_{\hat{\beta_1},\hat{\beta_0}}\frac{1}{N}\sum_{i=1}^N(\hat{u}_i)^2 \\&=\mathop{min}\limits_{\hat{\beta_1},\hat{\beta_0}}\frac{1}{N}\sum_{i=1}^N(y_i-\hat{\beta_0}-\hat{\beta_1}x_i)^2 \tag{3} \end{split} \end{equation*} β1​^​,β0​^​min​N1​i=1∑N​(u^i​−uˉ)2​=β1​^​,β0​^​min​N1​i=1∑N​(u^i​)2=β1​^​,β0​^​min​N1​i=1∑N​(yi​−β0​^​−β1​^​xi​)2​​(3)​对(3)(3)(3)尾式分别对β1、β2\beta_1、\beta_2β1​、β2​微分得到−2×1N∑i=1N(yi−β0^−β1^xi)=0−2×1N∑i=1N(xi(yi−β0^−β1^xi))=0\begin{equation*} \begin{split} -2\times\frac{1}{N}\sum_{i=1}^N(y_i-\hat{\beta_0}-\hat{\beta_1}x_i)=0\\ -2\times\frac{1}{N}\sum_{i=1}^N(x_i(y_i-\hat{\beta_0}-\hat{\beta_1}x_i))=0 \end{split} \end{equation*} −2×N1​i=1∑N​(yi​−β0​^​−β1​^​xi​)=0−2×N1​i=1∑N​(xi​(yi​−β0​^​−β1​^​xi​))=0​​这等价于样本矩条件,连列两个方程,可以求得与1.1证明相同的结果。

拟合优度

分别定义一下指标以评价方程对数据的拟合情况。

名称 缩写 公式
总平方和 SST ∑i=1N(yi−yˉ)2\sum_{i=1}^N(y_i-\bar{y})^2∑i=1N​(yi​−yˉ​)2
解释平方和 SSE ∑i=1N(yi^−yˉ)2\sum_{i=1}^N(\hat{y_i}-\bar{y})^2∑i=1N​(yi​^​−yˉ​)2
残差平方和 SSR ∑i=1N(u^)2\sum_{i=1}^N(\hat{u})^2∑i=1N​(u^)2

他们的关系为SST=SSE+SSR,以下将给出证明。

证明2.1 SST=SSE+SSR

SST=∑i=1N(yi−yˉ)2=∑i=1N(yi−yi^+yi^−yˉ)2=∑i=1N(ui^+yi^−yˉ)2=∑i=1N(ui^)2+∑i=1N(yi^−yˉ)2+2∑i=1Nui^(yi^−yiˉ)=SSR+SSE+2∑i=1Nui^(yi^−yiˉ)\begin{equation*} \begin{aligned} SST&=\sum_{i=1}^N(y_i-\bar{y})^2 \\&=\sum_{i=1}^N(y_i-\hat{y_i}+\hat{y_i}-\bar{y})^2 \\&=\sum_{i=1}^N(\hat{u_i}+\hat{y_i}-\bar{y})^2 \\&=\sum_{i=1}^N(\hat{u_i})^2+\sum_{i=1}^N(\hat{y_i}-\bar{y})^2+2\sum_{i=1}^N\hat{u_i}(\hat{y_i}-\bar{y_i}) \tag{4} \\&=SSR+SSE+2\sum_{i=1}^N\hat{u_i}(\hat{y_i}-\bar{y_i}) \end{aligned} \end{equation*}SST​=i=1∑N​(yi​−yˉ​)2=i=1∑N​(yi​−yi​^​+yi​^​−yˉ​)2=i=1∑N​(ui​^​+yi​^​−yˉ​)2=i=1∑N​(ui​^​)2+i=1∑N​(yi​^​−yˉ​)2+2i=1∑N​ui​^​(yi​^​−yi​ˉ​)=SSR+SSE+2i=1∑N​ui​^​(yi​^​−yi​ˉ​)​​(4)​另外结合零条件均值假设,考察 ∑i=1Nui^(yi^−yiˉ)\sum_{i=1}^N\hat{u_i}(\hat{y_i}-\bar{y_i})∑i=1N​ui​^​(yi​^​−yi​ˉ​)∑i=1Nui^(yi^−yiˉ)=∑i=1Nui^yi^−yˉ∑i=1Nui^=∑i=1Nui^(β0^−β1^xi)−0=β0^∑i=1Nui^−β1^∑i=1Nui^xi=0sothatwith(4),SST=SSR+SSE\begin{equation*} \begin{aligned} \sum_{i=1}^N\hat{u_i}(\hat{y_i}-\bar{y_i})&=\sum_{i=1}^N\hat{u_i}\hat{y_i}-\bar{y}\sum_{i=1}^N\hat{u_i} \\&=\sum_{i=1}^N\hat{u_i}(\hat{\beta_0}-\hat{\beta_1}x_i)-0 \\&=\hat{\beta_0}\sum_{i=1}^N\hat{u_i}- \hat{\beta_1}\sum_{i=1}^N\hat{u_i}x_i \\&=0 \\ \\so \ that \ with (4)&,SST=SSR+SSE \end{aligned} \end{equation*} i=1∑N​ui​^​(yi​^​−yi​ˉ​)so that with(4)​=i=1∑N​ui​^​yi​^​−yˉ​i=1∑N​ui​^​=i=1∑N​ui​^​(β0​^​−β1​^​xi​)−0=β0​^​i=1∑N​ui​^​−β1​^​i=1∑N​ui​^​xi​=0,SST=SSR+SSE​​
我们定义拟合优度为R2=SSESST=1−SSRSSTR^2=\frac{SSE}{SST}=1-\frac{SSR}{SST}R2=SSTSSE​=1−SSTSSR​,同时拟合优度亦可通过相关系数进行计算R2=corr(y,y^)=corr(x,y)R^2=corr(y,\hat{y})=corr(x,y)R2=corr(y,y^​)=corr(x,y)。

证明2.2 R2=corr2(y,y^)=corr2(x,y)\ R^2=corr^2(y,\hat{y})=corr^2(x,y) R2=corr2(y,y^​)=corr2(x,y)

显而易见corr(y,y^)=corr(y,β1^x+β0^)=corr(x,y)corr(y,\hat{y})=corr(y,\hat{\beta_1}x+\hat{\beta_0})=corr(x,y)corr(y,y^​)=corr(y,β1​^​x+β0​^​)=corr(x,y)(对某一数据线性变换不影响相关性)definedbyR2=SSESST=∑i=1N(y^i−yˉ)2∑i=1N(yi−yˉ)2=∑i=1N(β1^x+β0^−β1^xˉ−β0^)2∑i=1N(yi−yˉ)2=∑i=1N(β1^x−β1^xˉ)2∑i=1N(yi−yˉ)2=var2(β1^x)var2(y)=β1^2var(x)var(y)=cov2(x,y)var2(x)×var(x)var(y)=[cov(x,y)var(x)var(y)]2=corr2(x,y)socertifiedthatR2=corr2(y,y^)=corr2(x,y)\begin{equation*} \begin{aligned} defined\ by\ R^2&=\frac{SSE}{SST}=\frac{\sum_{i=1}^{N}(\hat{y}_i-\bar{y})^2}{\sum_{i=1}^{N}(y_i-\bar{y})^2} \\&=\frac{\sum_{i=1}^{N}(\hat{\beta_1}x+\hat{\beta_0}-\hat{\beta_1}\bar{x}-\hat{\beta_0})^2}{\sum_{i=1}^{N}(y_i-\bar{y})^2} \\&=\frac{\sum_{i=1}^{N}(\hat{\beta_1}x-\hat{\beta_1}\bar{x})^2}{\sum_{i=1}^{N}(y_i-\bar{y})^2} \\&=\frac{var^2(\hat{\beta_1}x)}{var^2(y)} \\&=\hat{\beta_1}^2\frac{var(x)}{var(y)} \\&=\frac{cov^2(x,y)}{var^2(x)}\times\frac{var(x)}{var(y)} \\&=[\frac{cov(x,y)}{\sqrt{var(x)var(y)}}]^2 \\&=corr^2(x,y) \\ \ so\ certified \ that \ R^2&=corr^2(y,\hat{y})=corr^2(x,y) \end{aligned} \end{equation*} defined by R2 so certified that R2​=SSTSSE​=∑i=1N​(yi​−yˉ​)2∑i=1N​(y^​i​−yˉ​)2​=∑i=1N​(yi​−yˉ​)2∑i=1N​(β1​^​x+β0​^​−β1​^​xˉ−β0​^​)2​=∑i=1N​(yi​−yˉ​)2∑i=1N​(β1​^​x−β1​^​xˉ)2​=var2(y)var2(β1​^​x)​=β1​^​2var(y)var(x)​=var2(x)cov2(x,y)​×var(y)var(x)​=[var(x)var(y)​cov(x,y)​]2=corr2(x,y)=corr2(y,y^​)=corr2(x,y)​​

参数的无偏性

我们所求参数β1^\hat{\beta_1}β1​^​与β0^\hat{\beta_0}β0​^​具有无偏性。以下将给出证明。

证明3.1 估计参数β1^\hat{\beta_1}β1​^​无偏,即E(β^1)=β1E(\hat{\beta}_1)=\beta_1E(β^​1​)=β1​

knownthatβ^1=∑i=1N(x−xˉ)(yi−yˉ)∑i=1N(x−xˉ)2andyi−yˉ=β1(xi−xˉ)+(ui−uˉ)\begin{equation*} \begin{aligned} known \ \ that \ \ \ \hat{\beta}_1=\frac{\sum_{i=1}^N(x-\bar{x})(y_i-\bar{y})}{\sum_{i=1}^N(x-\bar{x})^2} \tag{5} \ \ \ and \ \ y_i-\bar{y}=\beta_1(x_i-\bar{x})+(u_i-\bar{u}) \end{aligned} \end{equation*}known  that   β^​1​=∑i=1N​(x−xˉ)2∑i=1N​(x−xˉ)(yi​−yˉ​)​   and  yi​−yˉ​=β1​(xi​−xˉ)+(ui​−uˉ)​​(5)​
待更新,有问题请评论区说明

一元线性回归公式推导及证明相关推荐

  1. 一元线性回归公式推导

    一元线性回归公式推导 平均损失函数: 对w,b求偏导: 可求解(先求b,再求w): 或: 这两个式子中的w是等价de,可由第一个w分子分母同除n,再由下式得到第二个w: 参考文献: https://z ...

  2. 02. 一元线性回归公式推导

    求解偏置b的公式推导 推导思路 Created with Raphaël 2.2.0 开始 由最小二乘法导出损失函数E(w,b) 证明损失函数E(w,b)是关于w和b的凸函数 对损失函数E(w,b)关 ...

  3. 西瓜书《机器学习》线性模型 一元线性回归公式推导

     

  4. 机器学习(二)-一元线性回归算法(代码实现及数学证明)

    解决回归问题 思想简单,实现容易 许多强大的非线性模型的基础 结果具有很好的可解释性 蕴含机器学习中的很多重要思想 回归问题:连续值 如果样本 特征 只有一个 称为简单线性回归 y=ax + b 通过 ...

  5. 一元线性回归与多元线性回归理论及公式推导

    一元线性回归 回归分析只涉及到两个变量的,称一元回归分析. 一元回归的主要任务是从两个相关变量中的一个变量去估计另一个变量,被估计的变量,称因变量,可设为Y:估计出的变量,称自变量,设为X.回归分析就 ...

  6. UA MATH571A 一元线性回归III 方差分析与相关性分析

    UA MATH571A 一元线性回归III 方差分析与相关性分析 ANOVA Table F检验 回归系数的F检验 F检验与t检验等价 广义线性检验方法 R2R^2R2 数值例子:女性肌肉量与年龄的关 ...

  7. UA MATH571A 一元线性回归II 统计推断1

    UA MATH571A 一元线性回归II 统计推断1 β1\beta_1β1​的假设检验与置信区间 Gauss-Markov定理 检验的势 双边检验,单边检验与置信区间 置信区间 双边检验 单边检验 ...

  8. UA MATH571A 一元线性回归I 模型设定与估计

    UA MATH571A 一元线性回归I 模型设定与估计 模型设定 最小二乘法(Method of Least Square) Coefficients Mean Response and Residu ...

  9. 一元线性回归决定系数_回归分析|笔记整理(1)——引入,一元线性回归(上)...

    大家好! 新学期开始了,不知道大家又是否能够适应新的一学期呢?先祝所有大学生和中小学生开学快乐! 本学期我的专业课是概率论,回归分析,偏微分方程,数值代数,数值逼近,金融时间序列分析,应用金融计量学和 ...

最新文章

  1. linux chpasswd命令 批量修改用户密码
  2. .net core Entity Framework 与 EF Core
  3. Windows驱动开发 - 内核模式下的字符串操作
  4. python 简易计算器(只能计算加减乘除和括号)
  5. STM32 调试脚上电默认电平
  6. 若川知乎问答:2年前端经验,做的项目没什么技术含量,怎么办?
  7. 【然天一】随机读写(4k)百盘天梯
  8. 学习Python+numpy数组运算和矩阵运算看这254页PPT就够了
  9. finereport mysql 插件,web报表插件领导品牌FineReport
  10. 13.企业应用架构模式 --- 对象-关系元数据映射模式
  11. C# 将excel文件导入到SqlServer数据库
  12. ECSHOP源码分析
  13. 计算机更换硬盘键盘鼠标不好使,安装win7时鼠标键盘不能用怎么办?(完美解决方法)...
  14. 量化投资策略——海龟策略
  15. Ubuntu 18.04 WPS导出pdf部分线条变粗(okular的小问题)
  16. 阿里云服务器部署学习笔记
  17. 硬盘安装ovf镜像版Linux,linux-OVF模板部署问题
  18. 微软又发布了一款命令行神器,功能非常强大!
  19. GDAL 遥感 图像处理 锐化(Laplace算子、Sobel算子)
  20. 操作系统实验(1)—— Linux命令解释程序设计与实现

热门文章

  1. HTML显示中文乱码
  2. Eclipse 调试器:零距离接触实战技巧
  3. Mongodb Capped Collection集合
  4. Android 禁止输入emoji表情符号
  5. Android混合开发-(Android与Web的交互)
  6. [CSS]初识CSS
  7. huggingface实操_2018 年度 GtiHub 开源项目 TOP 25:数据科学 机器学习
  8. 公司电脑监控软件降低管理成本促进企业成长
  9. mysql中unsigned怎么用_MySQL数据类型:使用unsigned得注意事项
  10. oracle里的listagg,oracle中的listagg函数