机器学习笔记之正则化——拉格朗日乘数法角度

  • 引言
    • 回顾:基于正则化的最小二乘法
    • 正则化描述
      • 正则化的优化对象
      • 常见的正则化方法
    • 正则化角度处理神经网络的过拟合问题
      • 场景构建
      • 最优模型参数的不确定性
      • 最优模型参数不确定性带来的问题
      • 约束模型参数的方法
        • 从图像角度观察
        • 从拉格朗日求解角度观察
      • 关于常数 C \mathcal C C

引言

从本节开始,将介绍正则化,并从拉格朗日乘数法角度进行观察。

回顾:基于正则化的最小二乘法

对应《深度学习》(花书) P147 7.3 正则化与欠约束问题

在处理线性回归任务过程中,我们以 L 2 L_2 L2​正则化( Regularization \text{Regularization} Regularization)为例介绍了正则化在最小二乘法损失函数的作用。

关于最小二乘估计关于权重 W \mathcal W W的矩阵形式表达公式表示如下:
{ L ( W ) = W T X T X W − 2 W T X T Y + Y T Y W ^ = arg ⁡ min ⁡ W L ( W ) \begin{cases} \mathcal L(\mathcal W) = \mathcal W^T\mathcal X^T\mathcal X \mathcal W - 2 \mathcal W^T\mathcal X^T\mathcal Y + \mathcal Y^T\mathcal Y \\ \hat {\mathcal W} = \mathop{\arg\min}\limits_{\mathcal W} \mathcal L(\mathcal W) \end{cases} ⎩ ⎨ ⎧​L(W)=WTXTXW−2WTXTY+YTYW^=Wargmin​L(W)​
对 L ( W ) \mathcal L(\mathcal W) L(W)关于 W \mathcal W W求解偏导,求解最优值 W ^ \hat {\mathcal W} W^:
{ ∂ L ( W ) ∂ W = 2 X T X W − 2 X T Y ≜ 0 W ^ = ( X T X ) − 1 X T Y \begin{cases} \begin{aligned} \frac{\partial \mathcal L(\mathcal W)}{\partial \mathcal W} = 2\mathcal X^T\mathcal X\mathcal W - 2\mathcal X^T\mathcal Y \triangleq 0 \end{aligned} \\ \hat {\mathcal W} = (\mathcal X^T\mathcal X)^{-1}\mathcal X^T\mathcal Y \end{cases} ⎩ ⎨ ⎧​∂W∂L(W)​=2XTXW−2XTY≜0​W^=(XTX)−1XTY​
关于 L 2 L_2 L2​正则化的最小二乘估计 L ( W , λ ) \mathcal L(\mathcal W,\lambda) L(W,λ)表示为:
L ( W , λ ) = W T X T X W − 2 W T X T Y + Y T Y + λ W T W \mathcal L(\mathcal W,\lambda) = \mathcal W^T\mathcal X^T\mathcal X \mathcal W - 2 \mathcal W^T\mathcal X^T\mathcal Y + \mathcal Y^T\mathcal Y + \lambda \mathcal W^T\mathcal W L(W,λ)=WTXTXW−2WTXTY+YTY+λWTW
对应最优解表示为:
W ^ = ( X T X + λ I ) − 1 X T Y \hat {\mathcal W} = (\mathcal X^T\mathcal X + \lambda \mathcal I)^{-1} \mathcal X^T\mathcal Y W^=(XTX+λI)−1XTY
关于前后加正则化的权重最优解对比发现,在 N N N阶方阵 X T X \mathcal X^T\mathcal X XTX每个主对角线元素中添加了一个 λ \lambda λ。这样能够保证 X T X \mathcal X^T\mathcal X XTX必然是正定矩阵,而不单是实对称矩阵。如果 X T X \mathcal X^T\mathcal X XTX不是满秩矩阵,从而无法求解矩阵的逆 Λ − 1 \Lambda^{-1} Λ−1:
其中 Q \mathcal Q Q表示正交矩阵。
X T X = Q Λ Q T \mathcal X^T\mathcal X = \mathcal Q\Lambda\mathcal Q^T XTX=QΛQT

正则化描述

正则化的优化对象

正则化,本质上是一种减少过拟合的方法。在神经网络中,关于正则化的描述是指关于权重 W \mathcal W W的正则化。在神经网络中,参数分为两类:权重 ( Weight ) (\text{Weight}) (Weight)、偏置 ( Bias ) (\text{Bias}) (Bias)。

  • 权重影响的是神经网络所逼近函数的形状;而偏置影响的是函数的位置信息。在神经网络学习过程中,一旦对权重进行约束,偏置也会随之进行调整。因此对偏置进行约束意义不大。

  • M-P \text{M-P} M-P神经元的角度观察,偏置本身就是激活神经元的阈值。而阈值可看作是某权重与对应哑结点( Dummy Node \text{Dummy Node} Dummy Node)的线性结果,因而可以在学习过程中将阈值的学习包含在权重中( W Dum ∈ W \mathcal W_{\text{Dum}} \in \mathcal W WDum​∈W):
    θ = W Dum ⋅ x Dum ⏟ fixed = − 1 \theta = \mathcal W_{\text{Dum}} \cdot \underbrace{x_{\text{Dum}}}_{\text{fixed}=-1} θ=WDum​⋅fixed=−1 xDum​​​

因此,正则化的优化对象是权重参数 W \mathcal W W。

常见的正则化方法

常见的正则化方法是 L 1 , L 2 L_1,L_2 L1​,L2​正则化。这里的 L 1 , L 2 L_1,L_2 L1​,L2​是指对应范数的类型。以 L 2 L_2 L2​范数为例。假设某权重 W \mathcal W W是一个 p p p维向量:
W = ( w 1 , w 2 , ⋯ , w p ) T \mathcal W = (w_1,w_2,\cdots,w_p)^T W=(w1​,w2​,⋯,wp​)T
而 W \mathcal W W可看作是 p p p维特征空间中的一个具体的点。而 L 2 L_2 L2​范数表示该点 W \mathcal W W到 p p p维特征空间原点之间的距离
∣ ∣ W ∣ ∣ 2 = ( w 1 − 0 ) 2 + ( w 2 − 0 ) 2 + ⋯ + ( w p − 0 ) 2 = ∣ w 1 ∣ 2 + ∣ w 2 ∣ 2 + ⋯ + ∣ w p ∣ 2 \begin{aligned} ||\mathcal W||_2 & = \sqrt{(w_1 - 0)^2 + (w_2 - 0)^2 + \cdots + (w_p - 0)^2}\\ & = \sqrt{|w_1|^2 + |w_2|^2 + \cdots + |w_p|^2} \end{aligned} ∣∣W∣∣2​​=(w1​−0)2+(w2​−0)2+⋯+(wp​−0)2 ​=∣w1​∣2+∣w2​∣2+⋯+∣wp​∣2 ​​

以二维特征为例。此时的 W ( 2 ) \mathcal W^{(2)} W(2)表示为: W ( 2 ) = ( w 1 , w 2 ) T \begin{aligned}\mathcal W^{(2)} = (w_1,w_2)^T\end{aligned} W(2)=(w1​,w2​)T​。关于 W ( 2 ) \mathcal W^{(2)} W(2)的 L 2 L_2 L2​范数 ∣ ∣ W ( 2 ) ∣ ∣ 2 ||\mathcal W^{(2)}||_2 ∣∣W(2)∣∣2​可表示为:
∣ ∣ W ( 2 ) ∣ ∣ 2 = ∣ w 1 ∣ 2 + ∣ w 2 ∣ 2 ||\mathcal W^{(2)}||_2 = \sqrt{|w_1|^2 + |w_2|^2} ∣∣W(2)∣∣2​=∣w1​∣2+∣w2​∣2 ​
满足到 p p p维特征空间原点之间距离为 ∣ ∣ W ( 2 ) ∣ ∣ 2 ||\mathcal W^{(2)}||_2 ∣∣W(2)∣∣2​的 W \mathcal W W的集合在图像中表示的形状是一个,这意味着在圆上的每一个点都表示其特征满足 L 2 L_2 L2​范数结果相同的权重

  • 圆形状仅仅是二维特征的一个描述。随着维度增加,其形状是球、以及超球体。
  • 该图像视频链接见末尾,侵删,下同。

同理, L 1 L_1 L1​正则化对应的 L 1 L_1 L1​范数表示如下:
∣ ∣ W ∣ ∣ 1 = ∣ w 1 ∣ + ∣ w 2 ∣ + ⋯ + ∣ w p ∣ ||\mathcal W||_1 = |w_1| + |w_2| + \cdots + |w_p| ∣∣W∣∣1​=∣w1​∣+∣w2​∣+⋯+∣wp​∣
依然以二维权重特征 ∣ ∣ W ( 2 ) ∣ ∣ 1 = ∣ w 1 ∣ + ∣ w 2 ∣ ||\mathcal W^{(2)}||_1 = |w_1| + |w_2| ∣∣W(2)∣∣1​=∣w1​∣+∣w2​∣为例,其对应的权重集合在图像中表示为:

正则化不仅只有 L 1 , L 2 L_1,L_2 L1​,L2​正则化。在 K-Means \text{K-Means} K-Means聚类算法中介绍过:

  • L 1 L_1 L1​范数即权重与特征原点之间的曼哈顿距离( Manhattan Distance \text{Manhattan Distance} Manhattan Distance);
  • L 2 L_2 L2​范数即权重与特征原点之间的欧几里得距离( Euclidean Distance \text{Euclidean Distance} Euclidean Distance)。

它们都是明可夫斯基距离( Minkowski Distance \text{Minkowski Distance} Minkowski Distance)的一种具体表示结果:
∣ ∣ W ∣ ∣ p = ( ∑ k = 1 m ∣ w k − 0 ∣ p ) 1 p ||\mathcal W||_p = \left(\sum_{k=1}^m|w_k - 0|^p\right)^{\frac{1}{p}} ∣∣W∣∣p​=(k=1∑m​∣wk​−0∣p)p1​
m m m不仅可以取 1 , 2 1,2 1,2;它可以取到更大的数值,甚至是无穷大。对应图像举例表示如下:

观察,当参数 p ≥ 1 p \geq1 p≥1时,满足 L p L_p Lp​范数相等的点围成的集合图像是一个凸集合。而相反的, 0 < p ≤ 1 0 <p \leq1 0<p≤1时,对应图像时一个非凸集合。而 L 1 , L 2 L_1,L_2 L1​,L2​正则化就合理利用了凸集特性,取处理神经网络中出现的过拟合问题

正则化角度处理神经网络的过拟合问题

场景构建

  • 具体针对某神经网络的输出层神经元进行描述。以多分类任务为例,对应选择的激活函数是 Softmax \text{Softmax} Softmax函数:
    { Z ( l ) = [ W ( l ) ] T ⋅ a ( l − 1 ) + b ( l ) a ( l ) = Softmax ( Z ( l ) ) \begin{cases} \mathcal Z^{(l)} = [\mathcal W^{(l)}]^T \cdot a^{(l-1)} + b^{(l)} \\ a^{(l)} = \text{Softmax}(\mathcal Z^{(l)}) \end{cases} {Z(l)=[W(l)]T⋅a(l−1)+b(l)a(l)=Softmax(Z(l))​
    其中 W ( l ) \mathcal W^{(l)} W(l)表示输出层神经元的权重; a ( l − 1 ) a^{(l-1)} a(l−1)表示上一层神经元的输入信息; Z ( l ) = ( Z 1 ( l ) , Z 2 ( l ) , ⋯ , Z p ( l ) ) p × 1 T \mathcal Z^{(l)}=(\mathcal Z_1^{(l)},\mathcal Z_2^{(l)},\cdots,\mathcal Z_p^{(l)})_{p \times 1}^T Z(l)=(Z1(l)​,Z2(l)​,⋯,Zp(l)​)p×1T​表示输出层对应线性运算结果。 a ( l ) a^{(l)} a(l)表示输出层的最终输出。 Softmax ( Z ( l ) ) \text{Softmax}(\mathcal Z^{(l)}) Softmax(Z(l))展开结果表示如下:
    a ( l ) = Softmax ( Z ( l ) ) = [ exp ⁡ { Z 1 ( l ) } ∑ i = 1 p exp ⁡ { Z i ( l ) } , exp ⁡ { Z 2 ( l ) } ∑ i = 1 p exp ⁡ { Z i ( l ) } , ⋯ , exp ⁡ { Z p ( l ) } ∑ i = 1 p exp ⁡ { Z i ( l ) } ] p × 1 T a^{(l)} = \text{Softmax}(\mathcal Z^{(l)}) = \left[\frac{\exp\{\mathcal Z_1^{(l)}\}}{\sum_{i=1}^p \exp\{\mathcal Z_i^{(l)}\}},\frac{\exp\{\mathcal Z_2^{(l)}\}}{\sum_{i=1}^p \exp\{\mathcal Z_i^{(l)}\}},\cdots,\frac{\exp\{\mathcal Z_p^{(l)}\}}{\sum_{i=1}^p \exp\{\mathcal Z_i^{(l)}\}}\right]_{p \times 1}^T a(l)=Softmax(Z(l))=[∑i=1p​exp{Zi(l)​}exp{Z1(l)​}​,∑i=1p​exp{Zi(l)​}exp{Z2(l)​}​,⋯,∑i=1p​exp{Zi(l)​}exp{Zp(l)​}​]p×1T​
  • 关于损失函数,这里使用极大似然估计( Maximum Likelihood Estimate,MLE \text{Maximum Likelihood Estimate,MLE} Maximum Likelihood Estimate,MLE)
    J ( a ( l ) ) = MLE ( a ( l ) ) \mathcal J(a^{(l)}) = \text{MLE}(a^{(l)}) J(a(l))=MLE(a(l))

最优模型参数的不确定性

仅仅从输出层的角度观察该分类任务的目标:如果上一层的输出结果 a ( l − 1 ) a^{(l-1)} a(l−1)确定的条件下,找到一组合适的权重、偏置 W ^ ( l ) , b ^ ( l ) \hat {\mathcal W}^{(l)},\hat b^{(l)} W^(l),b^(l)使得损失函数达到最小:
W ^ ( l ) , b ^ ( l ) = arg ⁡ max ⁡ W ( l ) , b ( l ) J { Softmax [ ( W ^ ( l ) ) T ⋅ a ( l − 1 ) + b ^ ( l ) ] } \hat {\mathcal W}^{(l)},\hat b^{(l)} = \mathop{\arg\max}\limits_{\mathcal W^{(l)},b^{(l)}} \mathcal J \left\{\text{Softmax} \left[(\hat {\mathcal W}^{(l)})^T \cdot a^{(l-1)} + \hat b^{(l)}\right]\right\} W^(l),b^(l)=W(l),b(l)argmax​J{Softmax[(W^(l))T⋅a(l−1)+b^(l)]}
但实际上,上一层的输出结果 a ( l − 1 ) a^{(l-1)} a(l−1)并非是确定的,而对于 a ( l − 1 ) a^{(l-1)} a(l−1)也同样受对应的 W ( l − 1 ) , b ( l − 1 ) \mathcal W^{(l-1)},b^{(l-1)} W(l−1),b(l−1)约束。

  • 假设通过 l − 1 l-1 l−1层的线性运算以及激活函数,使最终得到的输出结果 a ^ ( l − 1 ) = 2 ⋅ a ( l − 1 ) \hat a^{(l-1)} = 2 \cdot a^{(l-1)} a^(l−1)=2⋅a(l−1):
    例如:使用 ReLU \text{ReLU} ReLU激活函数,对应的 W ( l − 1 ) , b ( l − 1 ) \mathcal W^{(l-1)},b^{(l-1)} W(l−1),b(l−1)均乘以 2 2 2.
    a ^ ( l − 1 ) = 2 ⋅ a ( l − 1 ) = ReLU [ 2 ⋅ W ( l − 1 ) ⋅ a ( l − 2 ) + 2 ⋅ b ( l − 1 ) ] \hat a^{(l-1)} = 2 \cdot a^{(l-1)} = \text{ReLU} \left[2 \cdot \mathcal W^{(l-1)} \cdot a^{(l-2)} + 2 \cdot b^{(l-1)}\right] a^(l−1)=2⋅a(l−1)=ReLU[2⋅W(l−1)⋅a(l−2)+2⋅b(l−1)]
  • 此时,由于 a ( l − 1 ) ⇒ a ^ ( l − 1 ) = 2 ⋅ a ( l − 1 ) a^{(l-1)} \Rightarrow \hat a^{(l-1)} = 2 \cdot a^{(l-1)} a(l−1)⇒a^(l−1)=2⋅a(l−1),在最终输出层中,同样需要调整输出层的参数来拟合最终结果:
    调整部分: W ^ ( l ) ⇒ 1 2 W ^ ( l ) \hat {\mathcal W}^{(l)} \Rightarrow \frac{1}{2} \hat {\mathcal W}^{(l)} W^(l)⇒21​W^(l)
    Z ( l ) = 1 2 [ W ^ ( l ) ] T ⋅ 2 ⋅ a ( l − 1 ) ⏟ a ^ ( l − 1 ) + b ^ ( l ) \mathcal Z^{(l)} = \frac{1}{2} [\hat {\mathcal W}^{(l)}]^T \cdot \underbrace{2 \cdot a^{(l-1)}}_{\hat a^{(l-1)}} + \hat b^{(l)} Z(l)=21​[W^(l)]T⋅a^(l−1) 2⋅a(l−1)​​+b^(l)

这里说明的是:在训练神经网络的过程中,假设能使损失函数达到最小的权重、偏置信息 W ^ , b ^ \hat {\mathcal W},\hat b W^,b^不是唯一确定的。最终获取损失函数最小的 W ^ , b ^ \hat {\mathcal W},\hat b W^,b^的大小取决于多种情况。例如:开始训练之前,对权重、偏置的初始化结果 W i n i t , b i n i t \mathcal W_{init},b_{init} Winit​,binit​的大小

随机初始化的 W i n i t , b i n i t \mathcal W_{init},b_{init} Winit​,binit​虽然各不相同,并且可能差异极大,但并不影响该参数在反向传播过程中使得损失函数达到最小。也就是说,如果训练了若干次神经网络,并且都使损失函数达到了最小值,但每次训练产生的最终模型参数 W , b \mathcal W,b W,b可能是一组一组不同的值。

最优模型参数不确定性带来的问题

从理论上来说,我们仅需要观察损失函数达到最小对应的最优模型参数即可,但真实情况下,效果并非如此。

  • 如果我们的数据集是一个全集:描述该任务中的所有样本均包含在数据集合中,即便参数不唯一,也不会影响最终的预测结果。

    在极大似然估计与最大后验概率估计中介绍过,在面对任务时,它对应的真实模型是客观存在的。也就是说,该真实模型可以源源不断地生成样本。因此,想要从真实模型中采样是永远采不完的

    其次,如果真的得到一个全集,我们完全可以通过查询的方式得到对应结果。并且它是完全正确的。那就没有必要使用机器学习算法来解决该问题了。

  • 同理,如果我们的预测任务仅仅在训练集中使用,参数不唯一同样不会影响最终预测结果。

    机器学习的目的就是用来预测未知(训练集之外)的数据,这种做法与机器学习的目的相悖,没有使用意义。

假设在训练集经过若干次训练,得到了若干组各自之间存在差异的模型参数。这些模型参数有大有小,在对陌生数据使用模型进行预测时,不同大小参数计算得到对应的 Softmax \text{Softmax} Softmax分量有大有小,最终可能导致分类存在差异的情况。

并且,样本自身存在噪声,也有可能存在 大的模型参数噪声之间的线性计算有可能主导了分类结果。使得最后判断的结果更容易出错。既然不同模型参数可能带来更多问题,我们是否可以寻找方法来约束一下参数 ? ? ?

约束模型参数的方法

针对上述问题,一种想法是约束模型参数的可行域范围:如果参数在可行域范围内,对于该参数的结果会认可;反之如果可行域范围之外,存在使得损失函数值更小的模型参数,也不会认可该参数

关于可行域范围的描述,这里使用范数进行表示:

  • 这里以 L 2 L_2 L2​范数为例。
  • 这里 J \mathcal J J依然表示损失函数; C \mathcal C C表示可行域范围的常数,它表示权重空间中的点 W \mathcal W W到原点之间的距离 ≤ C \leq \mathcal C ≤C.
  • 这里将 b b b归纳进 W \mathcal W W中,省略。
    { min ⁡ J ( W ) s . t . ∣ ∣ W ∣ ∣ 2 − C ≤ 0 \begin{cases} \mathop{\min} \mathcal J(\mathcal W) \\ s.t. \quad ||\mathcal W||_2 - \mathcal C \leq 0 \end{cases} {minJ(W)s.t.∣∣W∣∣2​−C≤0​

从图像角度观察

关于损失函数 J \mathcal J J以及正则项 ∣ ∣ W ∣ ∣ 2 − C ||\mathcal W||_2 - \mathcal C ∣∣W∣∣2​−C对应在权重特征空间中的范围表示如下:

作为约束条件的正则项(绿色圆),在圆内(包含边界)都是它的可行域范围;而褐色线表示损失函数的等高线,椭圆越小,它对应的权重的结果越优,损失函数越小。

为什么要选择蓝色点:实际上选择任意绿色圆内褐色线上的点都是满足约束要求的。但是只有蓝色点权重的向量分量对梯度下降方向的分量的比重最大。也可以理解成约束条件下的最优方向/权重。

从拉格朗日求解角度观察

这明显是一个带约束的优化问题。使用拉格朗日乘数法,对目标函数 L ( W , λ ) \mathcal L(\mathcal W,\lambda) L(W,λ)进行表示:
L ( W , λ ) = J ( W ) + λ ( ∣ ∣ W ∣ ∣ 2 − C ) \mathcal L(\mathcal W,\lambda) = \mathcal J(\mathcal W) + \lambda (||\mathcal W||_2 - \mathcal C) L(W,λ)=J(W)+λ(∣∣W∣∣2​−C)
由于是不等式约束,基于目标函数的优化结果可表示为:
其中 λ \lambda λ表示‘拉格朗日乘子’。
{ min ⁡ W max ⁡ λ L ( W , λ ) s . t . λ ≥ 0 \begin{cases} \mathop{\min}\limits_{\mathcal W} \mathop{\max}\limits_{\lambda} \mathcal L(\mathcal W,\lambda) \\ s.t. \quad \lambda \geq 0 \end{cases} {Wmin​λmax​L(W,λ)s.t.λ≥0​
目标函数 L ( W , λ ) \mathcal L(\mathcal W,\lambda) L(W,λ)展开,得到如下结果:
{ L ( W , λ ) = J ( W ) + λ ( ∣ ∣ W ∣ ∣ 2 − C ) = J ( W ) + λ ∣ ∣ W ∣ ∣ 2 − λ ⋅ C L ( W , λ ) = J ( W ) + λ ∣ ∣ W ∣ ∣ 2 \begin{cases} \begin{aligned}\mathcal L(\mathcal W,\lambda) & = \mathcal J(\mathcal W) + \lambda(||\mathcal W||_2 - \mathcal C) \\ & = \mathcal J(\mathcal W) + \lambda ||\mathcal W||_2 -\lambda \cdot \mathcal C \end{aligned}\\ \mathcal L(\mathcal W,\lambda) = \mathcal J(\mathcal W) + \lambda ||\mathcal W||_2 \end{cases} ⎩ ⎨ ⎧​L(W,λ)​=J(W)+λ(∣∣W∣∣2​−C)=J(W)+λ∣∣W∣∣2​−λ⋅C​L(W,λ)=J(W)+λ∣∣W∣∣2​​
其中上面的表示拉格朗日乘数法得到的结果;下面是常见的正则化表达结果。由于 λ , C \lambda,\mathcal C λ,C均是常数,对于求解最优权重 W \mathcal W W不影响,从而有:
对两目标函数对 W \mathcal W W求解梯度,由于常数 λ ⋅ C \lambda \cdot \mathcal C λ⋅C的梯度是 0 0 0,求出的 W \mathcal W W最值自然是相同的。
arg ⁡ W ( min ⁡ W max ⁡ λ J ( W ) + λ ∣ ∣ W ∣ ∣ 2 − λ ⋅ C s . t . λ ≥ 0 ) = arg ⁡ W ( min ⁡ W max ⁡ λ J ( W ) + λ ∣ ∣ W ∣ ∣ 2 s . t . λ ≥ 0 ) \mathop{\arg}\limits_{\mathcal W} \begin{pmatrix}\mathop{\min}\limits_{\mathcal W} \mathop{\max}\limits_{\lambda} \mathcal J(\mathcal W) + \lambda ||\mathcal W||_2 -\lambda \cdot \mathcal C \\ s.t. \quad \lambda \geq 0\end{pmatrix} = \mathop{\arg}\limits_{\mathcal W} \begin{pmatrix}\mathop{\min}\limits_{\mathcal W} \mathop{\max}\limits_{\lambda} \mathcal J(\mathcal W) + \lambda ||\mathcal W||_2 \\ s.t. \quad \lambda \geq 0\end{pmatrix} Warg​(Wmin​λmax​J(W)+λ∣∣W∣∣2​−λ⋅Cs.t.λ≥0​)=Warg​(Wmin​λmax​J(W)+λ∣∣W∣∣2​s.t.λ≥0​)
至此,关于正则化拉格朗日乘数法得到的关于 W \mathcal W W的优化解是等价的。

关于常数 C \mathcal C C

关于 C \mathcal C C的物理意义是:某权重点在权重空间中到原点的距离。就是上述绿色圆的半径。

但从上述正则化的角度观察,它并没有对常数 C \mathcal C C进行约束,那么是否可以说明常数 C \mathcal C C不重要呢?

自然不是

在使用梯度下降法优化模型参数 W \mathcal W W的过程中,每次迭代产生的梯度均与真正梯度结果大小相等,方向相反:
W ( t + 1 ) ⇐ W ( t ) − η ⋅ ∂ L ( W ( t ) ) ∂ W ( t ) \mathcal W^{(t+1)} \Leftarrow \mathcal W^{(t)} - \eta \cdot \frac{\partial \mathcal L(\mathcal W^{(t)})}{\partial \mathcal W^{(t)}} W(t+1)⇐W(t)−η⋅∂W(t)∂L(W(t))​
但是加入正则化后,我们的权重被约束在绿色圆范围内。而这个绿色圆的范围,也就是半径 C \mathcal C C并不是一成不变的,而是需要达到一种微妙的平衡

  • 通过 L 2 L_2 L2​范数的约束,使得学习出的权重尽量不出现过拟合
  • 被约束在绿色圆范围内,对应的权重预测结果是不够准确的,我们希望它更准确;

虽然我们没有直接约束 C \mathcal C C,但是我们可以通过约束 λ \lambda λ来约束绿色圆的范围。并且另一个重要原因是:调整 λ \lambda λ,从而调整 C \mathcal C C,最终实现蓝色点梯度与真正梯度大小相等
如果每次迭代过程内,梯度的大小被确定的情况下, λ ⋅ C \lambda \cdot \mathcal C λ⋅C被约束在了一个确定的范围

  • 如果 λ \lambda λ数值(人为设定)较大,这意味着 C \mathcal C C较小,从而使权重可行域范围很小。这样的权重构建的模型预测结果必然不准确,从而使预测结果的偏差较大
  • 如果 λ \lambda λ数值较小,着意味着 C \mathcal C C较大。权重可行域范围更大。如果极端一点,该范围把损失函数的范围(褐色线)全覆盖上了,那么正则化没有意义,此时产生过拟合。最终会使预测结果的方差较大
    这里有一道正则化与偏差方差的题,这里挖一个坑,后续介绍传送门

下一节将继续介绍正则化——从权重衰减的角度观察。

相关参考:
“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解

机器学习笔记之正则化(一)拉格朗日乘数法角度相关推荐

  1. 多变量微积分笔记6——拉格朗日乘数法

    基本的拉格朗日乘子法(又称为拉格朗日乘数法),就是求函数 f(x1,x2,...) 在 g(x1,x2,...)=C 的约束条件下的极值的方法.其主要思想是引入一个新的参数 λ (即拉格朗日乘子),将 ...

  2. 拉格朗日乘数法学习笔记

    对于一个多元函数\(f(x_1,x_2,x_3,..,x_n)\),如果它必须满足某一些限制\(g_i(x_1,x_2,x_3,...,x_n)=0\),我们可以使用拉格朗日乘数法来求它的最值 首先你 ...

  3. 拉格朗日乘数法的原理,我用10幅图把它讲清楚了

    机器学习是一个目标函数优化问题,给定目标函数f,约束条件会有一般包括以下三类: 仅含等式约束 仅含不等式约束 等式和不等式约束混合型 当然还有一类没有任何约束条件的最优化问题 关于最优化问题,大都令人 ...

  4. 拉格朗日乘数法 —— 通俗理解

    拉格朗日乘数法(Lagrange Multiplier Method)在数学最优问题中,是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法.记得以前大学高数.数模等课程多次提到过,在求解最有问 ...

  5. 优化算法之梯度下降法、牛顿法、拟牛顿法和拉格朗日乘数法

      在机器学习中,优化方法是其中一个非常重要的话题,最常见的情形就是利用目标函数的导数通过多次迭代来求解最优化问题. - 无约束最优化问题:梯度下降法.牛顿法.拟牛顿法: - 有约束最优化问题:拉格朗 ...

  6. CodeForces - 813C The Tag Game(拉格朗日乘数法,限制条件求最值)

    [传送门]http://codeforces.com/problemset/problem/813/C [题意]给定整数a,b,c,s,求使得  xa yb zc值最大的实数 x,y,z , 其中x ...

  7. CodeChef TWOROADS(计算几何+拉格朗日乘数法)

    题面 传送门 简要题意:给出\(n\)个点,请求出两条直线,并最小化每个点到离它最近的那条直线的距离的平方和,\(n\leq 100\) orz Shinbokuow 前置芝士 给出\(n\)个点,请 ...

  8. 拉格朗日乘数法(一种寻找变量受一个或多个条件所限制的多元函数的极值的方法)

    拉格朗日乘数法 在数学最优问题中,拉格朗日乘数法(以数学家约瑟夫·路易斯·拉格朗日命名)是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法.这种方法将一个有n 个变量与k 个约束条件的最优化问 ...

  9. BZOJ2876 [Noi2012]骑行川藏 【拉格朗日乘数法】

    题目链接 BZOJ 题解 拉格朗日乘数法 拉格朗日乘数法用以求多元函数在约束下的极值 我们设多元函数\(f(x_1,x_2,x_3,\dots,x_n)\) 以及限制\(g(x_1,x_2,x_3,\ ...

最新文章

  1. iOS 使用钥匙串将用户密码存入本地
  2. 我眼中的Visual Studio 2010架构工具
  3. 『Numpy』常用方法记录
  4. 如何活着:欲望、外界、标签、天才、时间、人生目标和经历
  5. HTML5新增的一些特性
  6. 异步IO\数据库\队列\缓存
  7. Jmeter远程测试
  8. ttl电路制作pong游戏_如何玩Mozilla Firefox的隐藏的独角兽Pong游戏
  9. [翻译]深入解析Windows操作系统(下)之第十章 内存管理
  10. 断面测量数据格式转换
  11. iReasoning MIB Browser显示中文乱码问题
  12. 双手不离键盘,Vim和Vimium扩展
  13. 三器六垢_本初行者劉暢友居士浅谈如何学佛(三)
  14. FFMPEG AvFilter使用实例(实现视频缩放,裁剪,水印等)
  15. mybatis mysql 关于调用存储过程获取查询结果
  16. 83、城市消防远程监控系统设计要求
  17. 将xlsx转换为csv的神器
  18. docker安装redis图文教程(详细)
  19. webUpload上传附件
  20. LeetCode Longest Turbulent Subarray

热门文章

  1. win10日常小技巧
  2. Android旗舰机与苹果,iPhone12已经到货,说一下使用体验以及和安卓旗舰手机的对比感受...
  3. 两个清爽的白噪音网站,提高工作效率
  4. redis清理key
  5. vi设计中视觉识别符号设计与商标设计的区别
  6. C++/Python PAT 乙级 1039 到底买不买(20)
  7. canal 数据库监控
  8. 计算机毕业设计Java老年人日间照料中心管理系统(源码+mysql数据库+系统+lw文档)
  9. MobaXterm连接Windows服务器
  10. 2021年安全员-B证(江西省)考试APP及安全员-B证(江西省)考试试卷