在机器学习领域,LDA是两个常用模型的简称:线性判别分析(Linear Discriminant Analysis) 和隐含狄利克雷分布(Latent Dirichlet Allocation)。在自然语言处理领域,隐含狄利克雷分布是一种处理文档的主题模型。本文只讨论线性判别分析,在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用。

线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的监督学习的数据降维方法,也叫做Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引入模式识别和人工智能领域的。LDA的主要思想是将一个高维空间中的数据投影到一个较低维的空间中,且投影后要保证各个类别的类内方差小而类间均值差别大,这意味着同一类的高维数据投影到低维空间后相同类别的聚在一起,而不同类别之间相距较远。如下图将二维数据投影到一维直线上:

LDA降维的目标:将带有标签的数据降维,投影到低维空间同时满足三个条件:

  1. 尽可能多的保留数据样本的信息(即选择最大的特征是对应的特征向量所代表的方向)。
  2. 寻找使样本尽可能好分的最佳投影方向。
  3. 投影后使得同类样本尽可能近,不同类样本尽可能远。

1 瑞利商(Rayleigh quotient)与广义瑞利商(genralized Rayleigh quotient)

首先来看看瑞利商的定义。瑞利商是指这样的函数 R(A,x)R(\pmb{A},\pmb{x})R(AAA,xxx):
R(A,x)=xHAxxHx(1-1)R(\boldsymbol{A}, \boldsymbol{x})=\dfrac{\boldsymbol{x}^{H} \boldsymbol{A x}}{\boldsymbol{x}^{H} \boldsymbol{x}} \tag{1-1}R(A,x)=xHxxHAx​(1-1)

其中 x\pmb{x}xxx 为非零向量,而 A\pmb{A}AAA 为 n×nn\times nn×n 的Hermitan矩阵。所谓的Hermitan矩阵就是满足共轭转置矩阵和自己相等的矩阵,即 AH=A\pmb{A}^H=\pmb{A}AAAH=AAA。如果我们的矩阵 A\pmb{A}AAA 是实矩阵,则满足 AT=A\pmb{A}^T =\pmb{A}AAAT=AAA 的矩阵即为Hermitan矩阵。

瑞利商 R(A,x)R(\pmb{A},\pmb{x})R(AAA,xxx) 有一个非常重要的性质,即它的最大值等于矩阵 A\pmb{A}AAA 最大的特征值,而最小值等于矩阵 A\pmb{A}AAA 的最小的特征值,也就是满足
λmin⁡≤xHAxxHx≤λmax⁡(1-2)\lambda_{\min } \leq \dfrac{\boldsymbol{x}^{H} \boldsymbol{A x}}{\boldsymbol{x}^{H} \boldsymbol{x}} \leq \lambda_{\max }\tag{1-2}λmin​≤xHxxHAx​≤λmax​(1-2)

具体的证明可以参考:瑞利商(Rayleigh Quotient)及瑞利定理(Rayleigh-Ritz theorem)的证明

当向量 x\pmb{x}xxx 是标准正交基时,即满足xHx=1\pmb{x}^H\pmb{x}=1xxxHxxx=1 时,瑞利商退化为:R(A,x)=xHAxR(\pmb{A},\pmb{x})=\pmb{x}^H\pmb{Ax}R(AAA,xxx)=xxxHAxAxAx。若 x\pmb{x}xxx 是实向量,则可以构造构造拉格朗日乘子函数 L(x,λ)=xTAx+λ(xTx−1)L(\boldsymbol{x},\lambda)=\boldsymbol{x}^T\boldsymbol{Ax}+\lambda(\boldsymbol{x}^T\boldsymbol{x}-1)L(x,λ)=xTAx+λ(xTx−1)

对 x\pmb{x}xxx 求梯度并令梯度为0可以得到 2Ax+2λx=02\pmb{Ax}+2\lambda \pmb{x}=02AxAxAx+2λxxx=0,等价于 Ax=λ^x\pmb{Ax}=\hat{\lambda} \pmb{x}AxAxAx=λ^xxx,假设 λ^i\hat{\lambda}_iλ^i​ 是 A\pmb{A}AAA 的第 iii 个特征值, xi\pmb{x}_ixxxi​ 是其对应的特征向量。

带入瑞利商的定义,可得 R(A,xi)=λ^iR(\pmb{A},\pmb{x}_i)=\hat{\lambda}_iR(AAA,xxxi​)=λ^i​,在最大的特征值处,瑞利商有最大值,在最小的特征值处,瑞利商有最小值。上面的形式在谱聚类和PCA中都有出现。

下面来看广义瑞利商。广义瑞利商是指这样的函数 R(A,B,x)R(\pmb{A},\pmb{B},\pmb{x})R(AAA,BBB,xxx):
R(A,B,x)=xHAxxHBx(1-3)R(\pmb{A},\pmb{B}, \pmb{x})=\frac{\pmb{x}^{H} \pmb{A x}}{\pmb{x}^{H} \pmb{B x}} \tag{1-3}R(AAA,BBB,xxx)=xxxHBxBxBxxxxHAxAxAx​(1-3)

其中 x\pmb{x}xxx 为非零向量,而 A,B\pmb{A},\pmb{B}AAA,BBB 为 n×nn\times nn×n 的Hermitan矩阵。B\pmb{B}BBB为正定矩阵。它的最大值和最小值是什么呢?其实我们只要通过将其通过标准化就可以转化为瑞利商的格式。
        假设对任意非0向量,有 xTBx>0\pmb{x}^T\pmb{Bx}>0xxxTBxBxBx>0,如果令 B=CCT\pmb{B}=\pmb{CC}^TBBB=CCCCCCT ,这是对矩阵 B\pmb{B}BBB 的Cholesky分解,同时令 x=(CT)−1y\pmb{x}=(\pmb{C}^T)^{-1}\pmb{y}xxx=(CCCT)−1y​y​​y,则可以将广义瑞利商转化成瑞利商的形式
xTAxxTBx=((CT)−1y)TA((CT)−1y)((CT)−1y)TCCT((CT)−1y)=yTC−1A(CT)−1yyTy(1-4)\frac{\pmb{x}^T\pmb{Ax}}{\pmb{x}^T\pmb{Bx}}=\frac{((\pmb{C}^T)^{-1}\pmb{y})^T\pmb{A}((\pmb{C}^T)^{-1}\pmb{y})}{((\pmb{C}^T)^{-1}\pmb{y})^T\pmb{CC}^T((\pmb{C}^T)^{-1}\pmb{y})}=\frac{\pmb{y}^T\pmb{C}^{-1}\pmb{A}(\pmb{C}^T)^{-1}\pmb{y}}{\pmb{y}^T\pmb{y}} \tag{1-4}xxxTBxBxBxxxxTAxAxAx​=((CCCT)−1y​y​​y)TCCCCCCT((CCCT)−1y​y​​y)((CCCT)−1y​y​​y)TAAA((CCCT)−1y​y​​y)​=y​y​​yTy​y​​yy​y​​yTCCC−1AAA(CCCT)−1y​y​​y​(1-4)

用前面的瑞利商的性质,我们可以很快的知道,R(A,B,x)R(\pmb{A},\pmb{B},\pmb{x})R(AAA,BBB,xxx) 的最大和最小值由矩阵 C−1A(CT)−1\pmb{C}^{-1}\pmb{A}(\pmb{C}^T)^{-1}CCC−1AAA(CCCT)−1 的最大和最小特征值决定。

加上等式约束 xTBx=1{\pmb{x}^T\pmb{Bx}}=1xxxTBxBxBx=1,广义瑞利商为 R(A,B,x)=xTAxR(\pmb{A},\pmb{B},\pmb{x})={\pmb{x}^T\pmb{Ax}}R(AAA,BBB,xxx)=xxxTAxAxAx,构造拉格朗日乘子函数 L(x,λ)=xTAx+λ(xTBx−1)L(\pmb{x},\lambda)={\pmb{x}^T\pmb{Ax}}+\lambda({\pmb{x}^T\pmb{Bx}}-1)L(xxx,λ)=xxxTAxAxAx+λ(xxxTBxBxBx−1)

对 x\pmb{x}xxx 求梯度并令梯度为0可以得到:2Ax+2λBx=02\pmb{Ax}+2\lambda\pmb{Bx}=02AxAxAx+2λBxBxBx=0,这等价于 Ax=λ^Bx\pmb{Ax} = \hat{\lambda}\pmb{Bx}AxAxAx=λ^BxBxBx,这是广义特征值的问题,如果 B\pmb{B}BBB 可逆,可得 B−1Ax=λ^x\pmb{B}^{-1}\pmb{Ax}=\hat{\lambda} \pmb{x}BBB−1AxAxAx=λ^xxx,因此广义瑞利商的所有极值在广义特征值处取得,假设 λ^i\hat{\lambda}_iλ^i​ 是第 iii 个广义特征值,xi\pmb{x}_ixxxi​ 是其对应的广义特征向量,带入广义瑞利商的定义可得 R(A,B,xi)=λiR(\pmb{A},\pmb{B},\pmb{x}_i)=\lambda_iR(AAA,BBB,xxxi​)=λi​。

广义瑞利商的极大值在最大广义特征值处取得,极小值在最小广义特征值处取得。下面线性判别分析的优化目标即是广义瑞利商。关于广义瑞利商的详细证明,请阅读:广义瑞利商理论


2 二类LDA原理

假设数据集为:
Data:{(x1,y1),(x2,y2),⋯,(xN,yN)}xi∈Rp,yi∈{+1,−1},i=1,2,⋯,N(2-1)Data:\{(\pmb{x_1}, y_1), (\pmb{x_2}, y_2), \cdots, (\pmb{x_N}, y_N)\} \quad \pmb{x}_{i}\in \mathbb{R}^{p},y_{i}\in \{+1, -1\},i=1,2,\cdots ,N \tag{2-1}Data:{(x1​​x1​​​x1​,y1​),(x2​​x2​​​x2​,y2​),⋯,(xN​​xN​​​xN​,yN​)}xxxi​∈Rp,yi​∈{+1,−1},i=1,2,⋯,N(2-1)
        分别用矩阵表示:
X=[x1,x2,⋯,xN]N×pT=[x1Tx2T⋮xNT]N×p=[x11x12⋯x1px21x22⋯x2p⋮⋮⋮⋮xN1xN2⋯xNp]N×p(2-2)\pmb{X} = [\pmb{x}_{1},\pmb{x}_{2},\cdots ,\pmb{x}_{N}]^{T}_{N \times p}= \begin{bmatrix} \pmb{x}_{1}^{T}\\ \pmb{x}_{2}^{T}\\ \vdots \\ \pmb{x}_{N}^{T} \end{bmatrix}_{N \times p} = \begin{bmatrix} x_{11} & x_{12} & \cdots & x_{1p} \\ x_{21} & x_{22} & \cdots & x_{2p} \\ \vdots & \vdots & \vdots &\vdots \\ x_{N1} & x_{N2} & \cdots & x_{Np} \\ \end{bmatrix}_{N \times p} \tag{2-2}XXX=[xxx1​,xxx2​,⋯,xxxN​]N×pT​=⎣⎢⎢⎢⎡​xxx1T​xxx2T​⋮xxxNT​​⎦⎥⎥⎥⎤​N×p​=⎣⎢⎢⎢⎡​x11​x21​⋮xN1​​x12​x22​⋮xN2​​⋯⋯⋮⋯​x1p​x2p​⋮xNp​​⎦⎥⎥⎥⎤​N×p​(2-2)

Y=(y1y2⋮yN)N×1(2-3)\pmb{Y}=\begin{pmatrix} y_1\\y_2\\\vdots\\y_N \end{pmatrix}_{N\times 1}\tag{2-3}YYY=⎝⎜⎜⎜⎛​y1​y2​⋮yN​​⎠⎟⎟⎟⎞​N×1​(2-3)

把上面的数据按 yiy_iyi​ 的取值分为两类,如下:
{(xi,yi)}i=1N,xi∈Rp,yi∈{+1‾C1,−1‾C2}xC1={xi∣yi=+1},xC2={xi∣yi=−1}∣xC1∣=N1,∣xC2∣=N2,N1+N2=N(2-4)\left \{(\pmb{x}_{i},y_{i})\right \}_{i=1}^{N},\pmb{x}_{i}\in \mathbb{R}^{p},y_{i}\in \{\underset{C_{1}}{\underline{+1}},\underset{C_{2}}{\underline{-1}}\}\\ \pmb{x}_{C_{1}}=\left \{\pmb{x}_{i}|y_{i}=+1\right \},\pmb{x}_{C_{2}}=\left \{\pmb{x}_{i}|y_{i}=-1\right \}\\ \left | \pmb{x}_{C_{1}}\right |=N_{1},\left | \pmb{x}_{C_{2}}\right |=N_{2},N_{1}+N_{2}=N \tag{2-4}{(xxxi​,yi​)}i=1N​,xxxi​∈Rp,yi​∈{C1​+1​​,C2​−1​​}xxxC1​​={xxxi​∣yi​=+1},xxxC2​​={xxxi​∣yi​=−1}∣xxxC1​​∣=N1​,∣xxxC2​​∣=N2​,N1​+N2​=N(2-4)

上面数据矩阵的解释:数据 X\pmb{X}XXX 中有 NNN 个样本,每个样本 xi\pmb{x}_ixxxi​ 为 ppp 维数据(含有 ppp 个feature),数据 Y\pmb{Y}YYY 表示有 NNN 个输出,即每个样本对应一个输出(可以理解为对每个样本的标签)。这里定义 Nj(j=0,1)N_j(j=0,1)Nj​(j=0,1) 为 CjC_jCj​ 类样本的个数,Xj(j=0,1)X_j(j=0,1)Xj​(j=0,1) 为 CjC_jCj​ 类样本的集合,而 xcj‾(j=0,1)\overline{\pmb{x}_{c_j}}(j=0,1)xxxcj​​​(j=0,1) 为第 CjC_jCj​ 类样本的均值向量,定义 Σj(j=0,1)\pmb{\Sigma}_j(j=0,1)ΣΣΣj​(j=0,1) 为 CjC_jCj​ 类样本的协方差矩阵。

由于是两类数据,因此我们只需要找一条直线(方向为w\pmb{w}www)来做投影,然后寻找最能使样本点分离的直线。当样本是二维的时候,如下图:

从直观上来看,右图比较好,可以很好地将不同类别的样本点分离。假设投影轴的方向向量为 w\pmb{w}www,将样本点往该轴上投影以后的值 ziz_{i}zi​ 为 wTxi\pmb{w}^{T}\pmb{x}_{i}wwwTxxxi​,其中 w∈Rp\pmb{w} \in \mathbb{R}^pwww∈Rp,均值和方差按照如下方法计算:

每类样例的均值:xcj‾=1Nj∑x∈Xjx投影后的样本点均值为:zcj‾=1Nj∑i=1Njzi=1Nj∑i=1NjwTxi=wTxcj‾(2-5)每类样例的均值: \overline{\pmb{x}_{c_j}} = \frac{1}{N_j}\sum_{\boldsymbol{x} \in X_j}\pmb{x}\\ 投影后的样本点均值为:\overline{z_{c_j}}=\frac{1}{N_j}\sum_{i=1}^{N_j}z_{i}=\frac{1}{N_j}\sum_{i=1}^{N_j}\pmb{w}^{T}\pmb{x}_{i} =\pmb{w}^T\overline{\pmb{x}_{c_j}} \tag{2-5}每类样例的均值:xxxcj​​​=Nj​1​x∈Xj​∑​xxx投影后的样本点均值为:zcj​​​=Nj​1​i=1∑Nj​​zi​=Nj​1​i=1∑Nj​​wwwTxxxi​=wwwTxxxcj​​​(2-5)

对第一点,相同类内部的样本更为接近,我们假设属于两类的试验样本数量分别是 N1N_1N1​和 N2N_2N2​,那么我们采用方差矩阵来表征每一个类内的总体分布,这里我们使用了协方差的定义,用 Σ\pmb{\Sigma}ΣΣΣ 表示原数据的协方差:
C1:Dz[C1]=1N1∑i=1N1(zi−zc1‾)(zi−zc1‾)T=1N1∑i=1N1(wTxi−wTxc1‾)(wTxi−wTxc1‾)T=wT1N1∑i=1N1(xi−xc1‾)(xi−xc1‾)Tw=wTΣ1wC2:Dz[C2]=1N2∑i=1N2(zi−zc2‾)(zi−zc2‾)T=wTΣ2w(2-6)\begin{aligned} C_1:D_z[C_1]&=\frac{1}{N_1}\sum\limits_{i=1}^{N_1}(z_i-\overline{z_{c_1}})(z_i-\overline{z_{c_1}})^T \\ &=\frac{1}{N_1}\sum\limits_{i=1}^{N_1}(\pmb{w}^T\pmb{x}_i-\pmb{w}^T\overline{\pmb{x}_{c_1}})(\pmb{w}^T\pmb{x}_i-\pmb{w}^T\overline{\pmb{x}_{c_1}})^T \\ &=\pmb{w}^T\frac{1}{N_1}\sum\limits_{i=1}^{N_1}(\pmb{x}_i-\overline{\pmb{x}_{c_1}})(\pmb{x}_i-\overline{\pmb{x}_{c_1}})^T\pmb{w} \\ &=\pmb{w}^T\pmb{\Sigma}_1\pmb{w}\\ C_2:D_z[C_2]&=\frac{1}{N_2}\sum\limits_{i=1}^{N_2}(z_i-\overline{z_{c_2}})(z_i-\overline{z_{c_2}})^T \\ &=\pmb{w}^T\pmb{\Sigma}_2\pmb{w} \end{aligned} \tag{2-6}C1​:Dz​[C1​]C2​:Dz​[C2​]​=N1​1​i=1∑N1​​(zi​−zc1​​​)(zi​−zc1​​​)T=N1​1​i=1∑N1​​(wwwTxxxi​−wwwTxxxc1​​​)(wwwTxxxi​−wwwTxxxc1​​​)T=wwwTN1​1​i=1∑N1​​(xxxi​−xxxc1​​​)(xxxi​−xxxc1​​​)Twww=wwwTΣΣΣ1​www=N2​1​i=1∑N2​​(zi​−zc2​​​)(zi​−zc2​​​)T=wwwTΣΣΣ2​www​(2-6)
        所以类内距离可以记为:
Dz[C1]+Dz[C2]=wT(Σ1+Σ2)w(2-7)\begin{aligned} D_z[C_1]+D_z[C_2]=\pmb{w}^T(\pmb{\Sigma}_1+\pmb{\Sigma}_2)\pmb{w} \end{aligned} \tag{2-7}Dz​[C1​]+Dz​[C2​]=wwwT(ΣΣΣ1​+ΣΣΣ2​)www​(2-7)
        对于第二点,让不同类别的数据尽可能地远离,我们可以用两类的均值表示这个距离:
(zc1‾−zc2‾)2=(1N1∑i=1N1wTxi−1N2∑i=1N2wTxi)2=(wT(xc1‾−xc2‾))2=wT(xc1‾−xc2‾)(xc1‾−xc2‾)Tw(2-8)\begin{aligned} (\overline{z_{c_1}}-\overline{z_{c_2}})^2&=(\frac{1}{N_1}\sum\limits_{i=1}^{N_1}\pmb{w}^T\pmb{x}_i-\frac{1}{N_2}\sum\limits_{i=1}^{N_2}\pmb{w}^T\pmb{x}_i)^2 \\ &=(\pmb{w}^T(\overline{\pmb{x}_{c_1}}-\overline{\pmb{x}_{c_2}}))^2 \\ &=\pmb{w}^T(\overline{\pmb{x}_{c_1}}-\overline{\pmb{x}_{c_2}})(\overline{\pmb{x}_{c_1}}-\overline{\pmb{x}_{c_2}})^T\pmb{w} \end{aligned} \tag{2-8}(zc1​​​−zc2​​​)2​=(N1​1​i=1∑N1​​wwwTxxxi​−N2​1​i=1∑N2​​wwwTxxxi​)2=(wwwT(xxxc1​​​−xxxc2​​​))2=wwwT(xxxc1​​​−xxxc2​​​)(xxxc1​​​−xxxc2​​​)Twww​(2-8)

由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化 (zc1‾−zc2‾)2(\overline{z_{c1}}-\overline{z_{c2}})^2(zc1​​−zc2​​)2,同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差 Dz[C1]D_z[C_1]Dz​[C1​] 和 Dz[C2]D_z[C_2]Dz​[C2​] 尽可能的小,即最小化 Dz[C1]+Dz[C2]D_z[C_1]+D_z[C_2]Dz​[C1​]+Dz​[C2​]。综上所述,由于协方差是一个矩阵,于是我们用将这两个值相除来得到我们的损失函数,并最大化这个值,即我们的优化目标为:
argmaxwJ(w)=argmaxw(zc1‾−zc2‾)2Dz[C1]+Dz[C2]=argmaxwwT(xc1‾−xc2‾)(xc1‾−xc2‾)TwwT(Σ1+Σ2)w(2-9)\begin{aligned} \mathop{argmax}\limits_\boldsymbol{w}J(\pmb{w})&=\mathop{argmax}\limits_\boldsymbol{w}\frac{(\overline{z_{c1}}-\overline{z_{c2}})^2}{D_z[C_1]+D_z[C_2]} \\ &=\mathop{argmax}\limits_\boldsymbol{w}\frac{w^T(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})^T\boldsymbol{w}}{\boldsymbol{w}^T(\boldsymbol{\Sigma}_1+\boldsymbol{\Sigma}_2)\boldsymbol{w}} \end{aligned} \tag{2-9}wargmax​J(www)​=wargmax​Dz​[C1​]+Dz​[C2​](zc1​​−zc2​​)2​=wargmax​wT(Σ1​+Σ2​)wwT(xc1​​−xc2​​)(xc1​​−xc2​​)Tw​​(2-9)

我们一般定义类内散度矩阵 Sw\pmb{S}_wSSSw​ 为:
Sw=Σ1+Σ2(2-10)\pmb{S}_w=\boldsymbol{\Sigma}_1+\boldsymbol{\Sigma}_2 \tag{2-10}SSSw​=Σ1​+Σ2​(2-10)

同时定义类间散度矩阵 Sb\pmb{S}_bSSSb​ 为:

Sb=(xc1‾−xc2‾)(xc1‾−xc2‾)T(2-11)\pmb{S}_b=(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})^T \tag{2-11}SSSb​=(xc1​​−xc2​​)(xc1​​−xc2​​)T(2-11)

所以,优化目标重写为:
argmaxwJ(w)=argmaxwwTSbwwTSww(2-12)\mathop{argmax}\limits_\boldsymbol{w}J(\pmb{w}) =\mathop{argmax}\limits_\boldsymbol{w}\frac{\boldsymbol{w}^T\boldsymbol{S}_b\boldsymbol{w}}{\boldsymbol{w}^T\boldsymbol{S}_w\boldsymbol{w}} \tag{2-12}wargmax​J(www)=wargmax​wTSw​wwTSb​w​(2-12)

这样,我们就把损失函数和原数据集以及参数结合起来了。

方法一:
        观察式子(2-12)不正是我们的广义瑞利商的形式,所以利用第一节讲到的广义瑞利商的性质,可以得到 J(w^)J(\hat{\pmb{w}})J(www^) 最大值为矩阵 Sw−12SbSw−12\boldsymbol{S}^{−\frac{1}{2}}_w\boldsymbol{S}_b\boldsymbol{S}^{−\frac{1}{2}}_wSw−21​​Sb​Sw−21​​ 的最大特征值,而对应的 w^\hat{\pmb{w}}www^ 为 Sw−12SbSw−12\boldsymbol{S}^{−\frac{1}{2}}_w\boldsymbol{S}_b\boldsymbol{S}^{−\frac{1}{2}}_wSw−21​​Sb​Sw−21​​ 的最大特征值对应的特征向量! 而 Sw−1Sb\pmb{S}^{−1}_w\pmb{S}_bSSSw−1​SSSb​ 的特征值和 Sw−12SbSw−12\boldsymbol{S}^{−\frac{1}{2}}_w\boldsymbol{S}_b\boldsymbol{S}^{−\frac{1}{2}}_wSw−21​​Sb​Sw−21​​ 的特征值相同,Sw−1Sb\pmb{S}^{−1}_w\pmb{S}_bSSSw−1​SSSb​ 的特征向量 w\pmb{w}www 和 Sw−12SbSw−12\boldsymbol{S}^{−\frac{1}{2}}_w\boldsymbol{S}_b\boldsymbol{S}^{−\frac{1}{2}}_wSw−21​​Sb​Sw−21​​ 的特征向量 w^\hat{\pmb{w}}www^ 满足w=Sw−12w^\pmb{w}=S^{−\frac{1}{2}}_{w}\hat{\pmb{w}}www=Sw−21​​www^ 的关系!

方法二:
        对于两类的情况,可以直接对这个损失函数求偏导,注意我们其实对 w\pmb{w}www 的绝对值没有任何要求,只对方向有要求,因此只要一个方程就可以求解了:
∂J(w)∂w=2Sbw(wTSww)−1+wTSbw(−1)(wTSww)−22Sbw=2[Sbw(wTSww)−1+wTSbw(−1)(wTSww)−2Sbw]=0(wTSbw,wTSww∈R)⇒Sbw(wTSww)−wTSbwSww=0⇒wTSbwSww=Sbw(wTSww)⇒Sww=wTSwwwTSbwSbw⇒w=wTSwwwTSbwSw−1Sbw(要注意对于w我们只关注它的方向,不关心它的大小。)⇒w∝Sw−1Sbw⇒w∝Sw−1(xc1‾−xc2‾)(xc1‾−xc2‾)Tw⏟1维⇒w∝Sw−1(xc1‾−xc2‾)⇒w∝(SC1+SC2)−1(xc1‾−xc2‾)(2-13)\frac{\partial J(\boldsymbol{w})}{\partial \boldsymbol{w}}=2\boldsymbol{S}_{b}\boldsymbol{w}(\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w})^{-1}+\boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w}(-1)(\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w})^{-2}2\boldsymbol{S}_{b}\boldsymbol{w}\\ =2[\boldsymbol{S}_{b}\boldsymbol{w}(\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w})^{-1}+\boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w}(-1)(\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w})^{-2}\boldsymbol{S}_{b}\boldsymbol{w}]=0\\ (\boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w},\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w}\in \mathbb{R})\\ \Rightarrow \boldsymbol{S}_{b}\boldsymbol{w}(\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w})-\boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w}\boldsymbol{S}_{w}\boldsymbol{w}=0\\ \Rightarrow \boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w}\boldsymbol{S}_{w}\boldsymbol{w}=\boldsymbol{S}_{b}\boldsymbol{w}(\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w})\\ \Rightarrow \boldsymbol{S}_{w}\boldsymbol{w}=\frac{\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w}}{\boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w}}\boldsymbol{S}_{b}\boldsymbol{w}\\ \Rightarrow \boldsymbol{w}=\frac{\boldsymbol{w}^{T}\boldsymbol{S}_{w}\boldsymbol{w}}{\boldsymbol{w}^{T}\boldsymbol{S}_{b}\boldsymbol{w}}\boldsymbol{S}_{w}^{-1}\boldsymbol{S}_{b}\boldsymbol{w}\\ (要注意对于\boldsymbol{w}我们只关注它的方向,不关心它的大小。)\\ \Rightarrow \boldsymbol{w}\propto \boldsymbol{S}_{w}^{-1}\boldsymbol{S}_{b}\boldsymbol{w}\\ \Rightarrow \boldsymbol{w}\propto \boldsymbol{S}_{w}^{-1}(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})\underset{1维}{\underbrace{(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})^{T}\boldsymbol{w}}}\\ \Rightarrow \boldsymbol{w}\propto \boldsymbol{S}_{w}^{-1}(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})\\ \Rightarrow \boldsymbol{w}\propto (\boldsymbol{S}_{C_{1}}+\boldsymbol{S}_{C_{2}})^{-1}(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}}) \tag{2-13}∂w∂J(w)​=2Sb​w(wTSw​w)−1+wTSb​w(−1)(wTSw​w)−22Sb​w=2[Sb​w(wTSw​w)−1+wTSb​w(−1)(wTSw​w)−2Sb​w]=0(wTSb​w,wTSw​w∈R)⇒Sb​w(wTSw​w)−wTSb​wSw​w=0⇒wTSb​wSw​w=Sb​w(wTSw​w)⇒Sw​w=wTSb​wwTSw​w​Sb​w⇒w=wTSb​wwTSw​w​Sw−1​Sb​w(要注意对于w我们只关注它的方向,不关心它的大小。)⇒w∝Sw−1​Sb​w⇒w∝Sw−1​(xc1​​−xc2​​)1维(xc1​​−xc2​​)Tw​​⇒w∝Sw−1​(xc1​​−xc2​​)⇒w∝(SC1​​+SC2​​)−1(xc1​​−xc2​​)(2-13)

于是 Sw−1(xc1‾−xc2‾)\boldsymbol{S}_w^{-1}(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})Sw−1​(xc1​​−xc2​​) 就是我们需要寻找的方向。最后可以归一化求得单位的 w\boldsymbol{w}w 值。

对于二类的时候,Sbw\pmb{S}_b\pmb{w}SSSb​www 的方向恒平行于 (xc1‾−xc2‾)(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})(xc1​​−xc2​​),不妨令 Sbw=(xc1‾−xc2‾)∗λ^\pmb{S}_b\pmb{w} =(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})*\hat{\lambda}SSSb​www=(xc1​​−xc2​​)∗λ^,将其带入:(Sw−1Sb)w=Sw−1(xc1‾−xc2‾)∗λ^=λw(\pmb{S}^{−1}_w\pmb{S}_b)\pmb{w}=\pmb{S}^{−1}_w(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})*\hat{\lambda}=\lambda\pmb{w}(SSSw−1​SSSb​)www=SSSw−1​(xc1​​−xc2​​)∗λ^=λwww, 由于对 w\pmb{w}www 扩大缩小任何倍不影响结果,因此可以约去两边的未知常数 λ\lambdaλ 和 λ^\hat{\lambda}λ^,可以得到 w=Sw−1(xc1‾−xc2‾)\pmb{w}=\pmb{S}^{−1}_w(\overline{\boldsymbol{x}_{c1}}-\overline{\boldsymbol{x}_{c2}})www=SSSw−1​(xc1​​−xc2​​), 也就是说我们只要求出原始二类样本的均值和方差就可以确定最佳的投影方向 w\pmb{w}www 了。

方法三:
        在我们求导之前,需要对分母进行归一化,因为不做归一的话,w\pmb{w}www 扩大任何倍,都成立,我们就无法确定 w\pmb{w}www。因此我们令 wTSww=1{\pmb{w}^T\pmb{S}_w\pmb{w}}=1wwwTSSSw​www=1(这里上下式子一同缩放不影响最后求 argmaxwJ(w)\mathop{argmax}\limits_\boldsymbol{w}J(\pmb{w})wargmax​J(www) 的结果),这样使用拉格朗日乘子法就可以得到:
J(w)=wTSbw−λ(wTSww−1)∂∂wJ(w)=2Sbw−2λSww=0Sbw=λSww(2-14)J(\boldsymbol{w})=\boldsymbol{w}^T\boldsymbol{S}_b\boldsymbol{w}-\lambda(\boldsymbol{w}^T\boldsymbol{S}_w\boldsymbol{w}-1) \\ \frac{\partial}{\partial \boldsymbol{w}}J(\boldsymbol{w})= 2\boldsymbol{S}_b\boldsymbol{w}-2\lambda\boldsymbol{S}_w\boldsymbol{w}=0\\ \boldsymbol{S}_b\boldsymbol{w}=\lambda\boldsymbol{S}_w\boldsymbol{w} \tag{2-14}J(w)=wTSb​w−λ(wTSw​w−1)∂w∂​J(w)=2Sb​w−2λSw​w=0Sb​w=λSw​w(2-14)

如果 Sw\boldsymbol{S}_wSw​ 可逆,就又变回了求特征向量的套路:
Sw−1Sbw=λw(2-15)\boldsymbol{S}_w^{-1}\boldsymbol{S}_b\boldsymbol{w}=\lambda\boldsymbol{w}\tag{2-15}Sw−1​Sb​w=λw(2-15)

当然,在实际问题中, 常出现 Sw\boldsymbol{S}_wSw​ 不可逆的问题,不过一般情况下可以通过其他方法解决:

  • 令 Sw=Sw+γI\boldsymbol{S}_w=\boldsymbol{S}_w+\gamma \pmb{I}Sw​=Sw​+γIII,其中 γ\gammaγ 是一个特别小的数,这样 Sw\boldsymbol{S}_wSw​ 一定可逆

  • 先使用PCA对数据进行降维,使得在降维后的数据上 Sw\boldsymbol{S}_wSw​ 可逆,再使用LDA


3 多类LDA原理

有了二类LDA的基础,我们再来看看多类别LDA的原理。

假设我们的数据集 D={(x1,y1),(x2,y2),...,(xN,yN)}D=\{(\pmb{x}_1,y_1), (\pmb{x}_2,y_2), ...,(\pmb{x}_N,y_N)\}D={(xxx1​,y1​),(xxx2​,y2​),...,(xxxN​,yN​)},其中任意样本 xi∈Rp\pmb{x}_i\in\mathbb{R}^pxxxi​∈Rp 为 ppp 维向量,yi∈{C1,C2,⋯,Ck}y_i\in\{C_1,C_2,\cdots,C_k\}yi​∈{C1​,C2​,⋯,Ck​}。我们定义 Nj(j=1,2,⋯,k)N_j(j=1,2,\cdots,k)Nj​(j=1,2,⋯,k) 为第 jjj 类样本的个数,Xj(j=1,2,⋯,k)X_j(j=1,2,\cdots,k)Xj​(j=1,2,⋯,k) 为第 jjj 类样本的集合,而 xcj‾(j=1,2,⋯,k)\overline{\boldsymbol{x}_{c_j}}(j=1,2,\cdots,k)xcj​​​(j=1,2,⋯,k) 为第 jjj 类样本的均值向量,定义 Σj(j=1,2...k)\pmb{\Sigma}_j(j=1,2...k)ΣΣΣj​(j=1,2...k) 为第 jjj 类样本的协方差矩阵。在二类LDA里面定义的公式可以很容易的类推到多类LDA。

由于我们是多类向低维投影,则此时投影到的低维空间就不是一条直线,而是一个超平面了。假设我们投影到的低维空间的维度为 qqq,对应的基向量为 (w1,w2,⋯,wq)(\pmb{w}_1,\pmb{w}_2,\cdots,\pmb{w}_q)(www1​,www2​,⋯,wwwq​),基向量组成的矩阵为 W\pmb{W}WWW, 它是一个 p×qp \times qp×q 的矩阵。

此时我们的优化目标应该可以变成为:
WTSbWWTSwW(3-1)\frac{\boldsymbol{W}^T\boldsymbol{S}_b\boldsymbol{W}}{\boldsymbol{W}^T\boldsymbol{S}_w\boldsymbol{W}} \tag{3-1}WTSw​WWTSb​W​(3-1)

其中 Sb=∑j=1kNj(xcj‾−x‾)(xcj‾−x‾)T\pmb{S}_b = \sum\limits_{j=1}^{k}N_j(\overline{\boldsymbol{x}_{c_j}}-\overline{\boldsymbol{x}})(\overline{\boldsymbol{x}_{c_j}}-\overline{\boldsymbol{x}})^TSSSb​=j=1∑k​Nj​(xcj​​​−x)(xcj​​​−x)T,x‾\overline{\boldsymbol{x}}x 为所有样本均值向量。Sw=∑j=1kSwj=∑j=1k∑x∈Xj(x−xcj‾)(x−xcj‾)T\pmb{S}_w = \sum\limits_{j=1}^{k}\pmb{S}_{wj} = \sum\limits_{j=1}^{k}\sum\limits_{\boldsymbol{x} \in \boldsymbol{X}_j}(\pmb{x}-\overline{\boldsymbol{x}_{c_j}})(\pmb{x}-\overline{\boldsymbol{x}_{c_j}})^TSSSw​=j=1∑k​SSSwj​=j=1∑k​x∈Xj​∑​(xxx−xcj​​​)(xxx−xcj​​​)T

这里的 WTSbW\boldsymbol{W}^T\boldsymbol{S}_b\boldsymbol{W}WTSb​W 和 WTSwW\boldsymbol{W}^T\boldsymbol{S}_w\boldsymbol{W}WTSw​W 都是矩阵,不是标量,无法作为一个标量函数来优化!也就是说,我们无法直接用二类LDA的优化方法,怎么办呢?一般来说,我们可以用其他的一些替代优化目标来实现。

常见的一个LDA多类优化目标函数定义为:
argmax⏟WJ(W)=∏diagWTSbW∏diagWTSwW(3-2)\underbrace{arg\;max}_\boldsymbol{W}\;\;J(\boldsymbol{W}) = \frac{\prod\limits_{diag}\boldsymbol{W}^T\boldsymbol{S}_b\boldsymbol{W}}{\prod\limits_{diag}\boldsymbol{W}^T\boldsymbol{S}_w\boldsymbol{W}}\tag{3-2}Wargmax​​J(W)=diag∏​WTSw​Wdiag∏​WTSb​W​(3-2)

其中 ∏diagA\prod\limits_{diag}\boldsymbol{A}diag∏​A 为 A\boldsymbol{A}A 的主对角线元素的乘积,W\boldsymbol{W}W 为 p×qp \times qp×q 的矩阵。

J(W)J(\pmb{W})J(WWW) 的优化过程可以转化为:
J(W)=∏i=1dwiTSbwi∏i=1dwiTSwwi=∏i=1dwiTSbwiwiTSwwi(3-3)J(\boldsymbol{W}) = \frac{\prod\limits_{i=1}^d\boldsymbol{w}_i^T\boldsymbol{S}_b\boldsymbol{w}_i}{\prod\limits_{i=1}^d\boldsymbol{w}_i^T\boldsymbol{S}_w\boldsymbol{w}_i} = \prod\limits_{i=1}^d\frac{\boldsymbol{w}_i^T\boldsymbol{S}_b\boldsymbol{w}_i}{\boldsymbol{w}_i^T\boldsymbol{S}_w\boldsymbol{w}_i}\tag{3-3}J(W)=i=1∏d​wiT​Sw​wi​i=1∏d​wiT​Sb​wi​​=i=1∏d​wiT​Sw​wi​wiT​Sb​wi​​(3-3)

仔细观察上式最右边,这不就是广义瑞利商嘛!最大值是矩阵 Sw−1Sb\pmb{S}^{−1}_w\pmb{S}_bSSSw−1​SSSb​ 的最大特征值,最大的 qqq 个值的乘积就是矩阵 Sw−1Sb\pmb{S}^{−1}_w\pmb{S}_bSSSw−1​SSSb​ 的最大的 qqq 个特征值的乘积,此时对应的矩阵 W\pmb{W}WWW 为这最大的 qqq 个特征值对应的特征向量张成的矩阵。

由于 W\pmb{W}WWW 是一个利用了样本的类别得到的投影矩阵,因此它的降维到的维度 qqq 最大值为 k−1k-1k−1。为什么最大维度不是类别数 kkk 呢?因为 Sb\pmb{S}_bSSSb​ 中每个 (xcj‾−x‾)(\overline{\boldsymbol{x}_{c_j}}-\overline{\boldsymbol{x}})(xcj​​​−x) 的秩为1,因此协方差矩阵相加后最大的秩为 kkk (矩阵的秩小于等于各个相加矩阵的秩的和),但是由于如果我们知道前 k−1k-1k−1个 xcj‾\overline{\boldsymbol{x}_{c_j}}xcj​​​ 后,最后一 个xck‾\overline{\boldsymbol{x}_{c_k}}xck​​​ 可以由前 k−1k-1k−1个 xcj‾\overline{\boldsymbol{x}_{c_j}}xcj​​​ 线性表示,因此 Sb\pmb{S}_bSSSb​ 的秩最大为 k−1k-1k−1,即特征向量最多有 k−1k-1k−1 个。


4 LDA算法流程

在第三节和第四节我们讲述了LDA的原理,现在我们对LDA降维的流程做一个总结。

输入:数据集 D={(x1,y1),(x2,y2),...,(xN,yN)}D=\{(\pmb{x}_1,y_1), (\pmb{x}_2,y_2), ...,(\pmb{x}_N,y_N)\}D={(xxx1​,y1​),(xxx2​,y2​),...,(xxxN​,yN​)},其中任意样本 xi∈Rp\pmb{x}_i\in\mathbb{R}^pxxxi​∈Rp 为 ppp 维向量,yi∈{C1,C2,⋯,Ck}y_i\in\{C_1,C_2,\cdots,C_k\}yi​∈{C1​,C2​,⋯,Ck​},降维到的维度 qqq。

输出:降维后的样本集 D′D′D′

  1. 计算类内散度矩阵 Sw\pmb{S}_wSSSw​

  2. 计算类间散度矩阵 Sb\pmb{S}_bSSSb​

  3. 计算矩阵 Sw−1Sb\pmb{S}^{−1}_w\pmb{S}_bSSSw−1​SSSb​

  4. 计算 Sw−1Sb\pmb{S}^{−1}_w\pmb{S}_bSSSw−1​SSSb​ 的最大的 qqq 个特征值和对应的 qqq 个特征向量 (w1,w2,⋯,wd)(\pmb{w}_1,\pmb{w}_2,\cdots,\pmb{w}_d)(www1​,www2​,⋯,wwwd​) 得到投影矩阵 W\pmb{W}WWW

  5. 对样本集中的每一个样本特征 xi\pmb{x}_ixxxi​,转化为新的样本 zi=WTxi\pmb{z}_i = \pmb{W}^T\pmb{x}_izzzi​=WWWTxxxi​

  6. 得到输出样本集 D′=(z1,y1),(z2,y2),⋯,((zm,ym))D′={(\pmb{z}_1,y_1),(\pmb{z}_2,y_2),\cdots,((\pmb{z}_m,y_m))}D′=(zzz1​,y1​),(zzz2​,y2​),⋯,((zzzm​,ym​))

以上就是使用LDA进行降维的算法流程。实际上LDA除了可以用于降维以外,还可以用于分类。一个常见的LDA分类基本思想是假设各个类别的样本数据符合高斯分布,这样利用LDA进行投影后,可以利用极大似然估计计算各个类别投影数据的均值和方差,进而得到该类别高斯分布的概率密度函数。当一个新的样本到来后,我们可以将它投影,然后将投影后的样本特征分别带入各个类别的高斯分布概率密度函数,计算它属于这个类别的概率,最大的概率对应的类别即为预测类别。


5 程序实现

5.1 Python实现

import numpy as np
from sklearn.datasets import load_iris
import matplotlib.pyplot as pltdef LDA(data, target, n_dim):''':param data: (n_samples, n_features):param target: data class:param n_dim: target dimension:return: (n_samples, n_dims)'''   clusters = np.unique(target)if n_dim > len(clusters)-1:print("K is too much")print("please input again")exit(0)#within_class scatter matrixSw = np.zeros((data.shape[1],data.shape[1]))for i in clusters:datai = data[target == i]datai = datai-datai.mean(0)Swi = np.mat(datai).T*np.mat(datai)Sw += Swi#between_class scatter matrixSB = np.zeros((data.shape[1],data.shape[1]))u = data.mean(0)  #所有样本的平均值for i in clusters:Ni = data[target == i].shape[0]ui = data[target == i].mean(0)  #某个类别的平均值SBi = Ni*np.mat(ui - u).T*np.mat(ui - u)SB += SBiS = np.linalg.inv(Sw)*SBeigVals,eigVects = np.linalg.eig(S)  #求特征值,特征向量eigValInd = np.argsort(eigVals)eigValInd = eigValInd[:(-n_dim-1):-1]w = eigVects[:,eigValInd]data_ndim = np.dot(data, w)return data_ndimif __name__ == '__main__':iris = load_iris()X = iris.dataY = iris.targettarget_names = iris.target_namesX_r2 = LDA(X, Y, 2)colors = ['navy', 'turquoise', 'darkorange']for color, i, target_name in zip(colors, [0, 1, 2], target_names):plt.scatter(X_r2[Y == i, 0], X_r2[Y == i, 1], alpha=.8, color=color,label=target_name)plt.legend(loc='best', shadow=False, scatterpoints=1)plt.title('LDA of IRIS dataset by Python')plt.show()

5.2 sklearn实现

scikit-learn中, LDA类是sklearn.discriminant_analysis.LinearDiscriminantAnalysis。既可以用于分类又可以用于降维。当然,应用场景最多的还是降维。和PCA类似,LDA降维基本也不用调参,只需要指定降维到的维数即可。对LinearDiscriminantAnalysis模块的详细介绍,可以参考下面两篇文章:sklearn学习9----LDA (discriminat_analysis) 和 用scikit-learn进行LDA降维

import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.discriminant_analysis import LinearDiscriminantAnalysisiris = datasets.load_iris()
X = iris.data
Y = iris.target
target_names = iris.target_names
lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, Y).transform(X)
colors = ['navy', 'turquoise', 'darkorange']for color, i, target_name in zip(colors, [0, 1, 2], target_names):plt.scatter(X_r2[Y == i, 0], X_r2[Y == i, 1], alpha=.8, color=color,label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('LDA of IRIS dataset by sklearn')plt.show()


6 LDA vs PCA

LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。

LDA最多将数据降维至 k−1k-1k−1 维,也就是说如果有两类数据,最终降维只能到1维,也就是说投影到一个直线上。这在很多情况下无法对数据进行很好的投影,例如下图中的几种情况。也就是说,LDA不适合对非高斯分布的样本进行降维。

若训练样本集两类的均值有明显的差异,LDA降维的效果较优,如下图:

若训练样本集两类的均值无明显的差异,但协方差差异很大,PCA降维的效果较优,如下图:


LDA算法小结

LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。在我们进行图像识别图像识别相关的数据分析时,LDA是一个有力的工具。下面总结下LDA算法的优缺点。

LDA算法的主要优点有:

LDA算法的主要缺点有:


参考

  • 线性判别分析LDA原理总结:https://www.cnblogs.com/pinard/p/6244265.html
  • 线性判别分析(Linear Discriminant Analysis)(一):https://www.cnblogs.com/jerrylead/archive/2011/04/21/2024384.html
  • 机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA):https://www.cnblogs.com/LeftNotEasy/archive/2011/01/08/lda-and-pca-machine-learning.html
  • 线性判别分析(Linear Discriminant Analysis, LDA)算法分析:https://blog.csdn.net/warmyellow/article/details/5454943
  • 如何理解线性判别分类器(LDA):https://mp.weixin.qq.com/s/5aqJ1mdS3hzJSh1rILMt5g
  • 机器学习算法原理笔记(三)—— LDA线性判别分析:https://www.jianshu.com/p/c365e818331b
  • Python机器学习笔记:线性判别分析(LDA)算法:https://www.cnblogs.com/wj-1314/p/10234256.html
  • 瑞利商(Rayleigh Quotient)及瑞利定理(Rayleigh-Ritz theorem)的证明:https://blog.csdn.net/klcola/article/details/104800804
  • 【线性代数】瑞利商和广义瑞利商:https://zhuanlan.zhihu.com/p/432080955

线性分类(二)-- 线性判别分析 LDA相关推荐

  1. R机器学习:分类算法之判别分析LDA,QDA的原理与实现

    判别分析的框框很大,今天给大家写写线性判别和二次判别,这两个是判别分析中最常见也是最基本的,希望能够给大家写明白. 首先给出判别分析的定义: Linear discriminant analysis ...

  2. 判别器loss为0_scikitlearn—线性判别分析和二次判别分析

    线性判别分析(discriminant_analysis.LinearDiscriminantAnalysis)和二次判别分析(discriminant_analysis.QuadraticDiscr ...

  3. 【数学建模】Matlab实现判别分析(线性判别和二次判别分析)

    Matlab实现判别分析(线性判别和二次判别分析) 一.简介 二.判别分析的方法 2.1 费歇(FISHER)判别思想 2.1 贝叶斯(BAYES)判别思想 三.Matlab 实现判别分析 3.1 代 ...

  4. 白板机器学习笔记 P13-P21 线性分类

    视频地址:https://www.bilibili.com/video/BV1aE411o7qd 笔记地址:https://www.yuque.com/books/share/f4031f65-70c ...

  5. HBU-NNDL 实验四 线性分类

    第3章 线性分类 线性回归和线性分类之间有着很大的联系,从某种意义上来说,线性分类就是线性回归函数使用激活函数的结果.同时也可以看成是线性回归降维的结果.对于一个线性回归函数,我们可以通过添加全局函数 ...

  6. 【神经网络与深度学习】1.线性分类与感知机

    线性分类与感知机 线性分类 线性回归 线性二分类 多分类回归 多层感知机 神经元模型 感知机模型 作为机器学习的一类,深度学习通常基于神经网络模型逐级表示越来越抽象的概念或模式. 这里从线性回归和so ...

  7. R语言惩罚逻辑回归、线性判别分析LDA、广义加性模型GAM、多元自适应回归样条MARS、KNN、二次判别分析QDA、决策树、随机森林、支持向量机SVM分类优质劣质葡萄酒十折交叉验证和ROC可视化

    最近我们被客户要求撰写关于葡萄酒的研究报告,包括一些图形和统计输出. 介绍 数据包含有关葡萄牙"Vinho Verde"葡萄酒的信息.该数据集有1599个观测值和12个变量,分别是 ...

  8. 『矩阵论笔记』线性判别分析(LDA)最全解读+python实战二分类代码+补充:矩阵求导可以参考

    线性判别分析(LDA)最全解读+python实战二分类代码! 文章目录 一.主要思想! 二.具体处理流程! 三.补充二中的公式的证明! 四.目标函数的求解过程! 4.1.优化问题的转化 4.2.拉格朗 ...

  9. 线性判别分析LDA的数学原理(二)

    1.关于PCA和LDA分类对比 PCA是无类别信息,不知道样本属于哪个类,用PCA通常对全体数据操作.LDA有类别信息投影到类内间距最小&&类间间距最大. 首先我们应该明白这两个算法的 ...

最新文章

  1. 前端(移动端)开发利器Chrome Developer Tools秘籍(下)
  2. 这么说线程生命周期是不是简单了点?
  3. 排队8小时,火遍上海!美国最会装X的网红咖啡,又把中国人拿捏了
  4. Solr学习总结(四)Solr查询参数
  5. 【LOJ】#2230. 「BJOI2014」大融合
  6. 初涉SEO有感-房途网SEO
  7. php goeasy,PHP使用GOEASY实现WEB实时推送
  8. 向前迈进!走入GC世界:G1 GC原理深入解析
  9. 微信小程序——车牌键盘组件实现
  10. Qt撤销回/撤框架:QUndoCommand
  11. 计算机网络-哈尔滨工业大学mooc-第2周作业解答
  12. DRB-GAN: A Dynamic ResBlock Generative Adversarial Network for Artistic Style Transfer
  13. 关于GMac和FLOPs讨论
  14. html5一键打包成苹果软件,GDB苹果网页一键打包工具如何使用?GDB苹果网页一键打包工具安装使用教程...
  15. 「牛客网C」初学者入门训练BC156
  16. 【量化笔记】ARCH效应检验及GARCH建模的python实现
  17. labspec6教程_LabSpec6软件功能–光谱扫描方式-Horiba.PDF
  18. android上调试H5小工具
  19. 欧洲服务器与美国服务器哪个比较好呢?
  20. 你知道PHP的另一种语法吗,我孤陋寡闻了

热门文章

  1. vscode中将tpl文件高亮显示
  2. 作为主播如何打造个人IP的7个技巧
  3. 2019最新千峰Php高级工程师视频教程
  4. [4G+5G专题-141]: 终端 - 测试仪表详解
  5. linux内核安装busybox,学习busybox基本配置安装(转载)
  6. Fragment随笔(一)
  7. 全球及中国电子线路保护器行业发展格局与投资规划研究报告2022版
  8. 神行千里 游戏蜂窝iOS战舰少女r远征辅助
  9. 布隆过滤器速度_布隆过滤器(Bloom Filter)详解
  10. Realtek 8125驱动分析第二篇——触发硬件中断