机器学习的数学基础 矩阵论与概率论
文章目录
- 机器学习的数学基础
- 1.1 标量、向量、矩阵、张量之间的联系
- 1.2 张量与矩阵的区别?
- 1.3 矩阵和向量相乘结果
- 1.4 向量和矩阵的范数归纳
- 1.5 如何判断一个矩阵为正定?
- 1.6 导数偏导计算
- 1.7 导数和偏导数有什么区别?
- 1.8 特征值分解与特征向量
- 1.9 奇异值与特征值有什么关系?
- 1.10 机器学习为什么要使用概率?
- 1.11 变量与随机变量有什么区别?
- 1.12 常见概率分布
- 1.13 举例理解条件概率
- 1.14 联合概率与边缘概率联系区别?
- 1.15 条件概率的链式法则
- 1.16 独立性和条件独立性
- 1.17 期望、方差、协方差、相关系数总结
机器学习的数学基础
1.1 标量、向量、矩阵、张量之间的联系
标量(scalar)
一个标量表示一个单独的数,它不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。我们用斜体表示标量。标量通常被赋予小写的变量名称。
向量(vector)
一个向量表示一组有序排列的数。通过次序中的索引,我们可以确定每个单独的数。通常我们赋予向量粗体的小写变量名称,比如xx。向量中的元素可以通过带脚标的斜体表示。向量XXX的第一个元素是X1X_1X1,第二个元素是X2X_2X2,以此类推。我们也会注明存储在向量中的元素的类型(实数、虚数等)。
矩阵(matrix)
矩阵是具有相同特征和纬度的对象的集合,表现为一张二维数据表。其意义是一个对象表示为矩阵中的一行,一个特征表示为矩阵中的一列,每个特征都有数值型的取值。通常会赋予矩阵粗体的大写变量名称,比如AAA。
张量(tensor)
在某些情况下,我们会讨论坐标超过两维的数组。一般地,一个数组中的元素分布在若干维坐标的规则网格中,我们将其称之为张量。使用 AAA 来表示张量“A”。张量AAA中坐标为(i,j,k)(i,j,k)(i,j,k)的元素记作A(i,j,k)A_{(i,j,k)}A(i,j,k)。
四者之间关系
标量是0阶张量,向量是一阶张量。举例:
标量就是知道棍子的长度,但是你不会知道棍子指向哪儿。
向量就是不但知道棍子的长度,还知道棍子指向前面还是后面。
张量就是不但知道棍子的长度,也知道棍子指向前面还是后面,还能知道这棍子又向上/下和左/右偏转了多少。
1.2 张量与矩阵的区别?
- 从代数角度讲, 矩阵它是向量的推广。向量可以看成一维的“表格”(即分量按照顺序排成一排), 矩阵是二维的“表格”(分量按照纵横位置排列), 那么nnn阶张量就是所谓的nnn维的“表格”。 张量的严格定义是利用线性映射来描述。
- 从几何角度讲, 矩阵是一个真正的几何量,也就是说,它是一个不随参照系的坐标变换而变化的东西。向量也具有这种特性。
- 张量可以用3×3矩阵形式来表达。
- 表示标量的数和表示矢量的三维数组也可分别看作1×1,1×3的矩阵。
1.3 矩阵和向量相乘结果
一个mmm行nnn列的矩阵和nnn行向量相乘,最后得到就是一个mmm行的向量。运算法则就是矩阵中的每一行数据看成一个行向量与该向量作点乘。
1.4 向量和矩阵的范数归纳
向量的范数
定义一个向量为:a⃗=[−5,6,8,−10]\vec{a}=[-5, 6, 8, -10]a=[−5,6,8,−10]。任意一组向量设为x⃗=(x1,x2,...,xN)\vec{x}=(x_1,x_2,...,x_N)x=(x1,x2,...,xN)。其不同范数求解如下:
- 向量的1范数:向量的各个元素的绝对值之和,上述向量a⃗\vec{a}a的1范数结果就是:29。
∥x⃗∥1=∑i=1N∣xi∣\Vert\vec{x}\Vert_1=\sum_{i=1}^N\vert{x_i}\vert ∥x∥1=i=1∑N∣xi∣
- 向量的2范数:向量的每个元素的平方和再开平方根,上述a⃗\vec{a}a的2范数结果就是:15。
∥x⃗∥2=∑i=1N∣xi∣2\Vert\vec{x}\Vert_2=\sqrt{\sum_{i=1}^N{\vert{x_i}\vert}^2} ∥x∥2=i=1∑N∣xi∣2
- 向量的负无穷范数:向量的所有元素的绝对值中最小的:上述向量a⃗\vec{a}a的负无穷范数结果就是:5。
∥x⃗∥−∞=min∣xi∣\Vert\vec{x}\Vert_{-\infty}=\min{|{x_i}|} ∥x∥−∞=min∣xi∣
- 向量的正无穷范数:向量的所有元素的绝对值中最大的:上述向量a⃗\vec{a}a的负无穷范数结果就是:10。
∥x⃗∥+∞=max∣xi∣\Vert\vec{x}\Vert_{+\infty}=\max{|{x_i}|} ∥x∥+∞=max∣xi∣
- 向量的p范数:向量元素绝对值的p次方和的1/p次幂。
Lp=∥x⃗∥p=∑i=1N∣xi∣ppL_p=\Vert\vec{x}\Vert_p=\sqrt[p]{\sum_{i=1}^{N}|{x_i}|^p} Lp=∥x∥p=pi=1∑N∣xi∣p
矩阵的范数
定义一个矩阵A=[−1,2,−3;4,−6,6]A=[-1, 2, -3; 4, -6, 6]A=[−1,2,−3;4,−6,6]。 任意矩阵定义为:Am×nA_{m\times n}Am×n,其元素为 aija_{ij}aij。
矩阵的范数定义为
∥A∥p:=supx≠0∥Ax∥p∥x∥p\Vert{A}\Vert_p :=\sup_{x\neq 0}\frac{\Vert{Ax}\Vert_p}{\Vert{x}\Vert_p} ∥A∥p:=x̸=0sup∥x∥p∥Ax∥p
当向量取不同范数时, 相应得到了不同的矩阵范数。
- 矩阵的1范数(列范数):矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大),上述矩阵AAA的1范数先得到[5,8,9][5,8,9][5,8,9],再取最大的最终结果就是:9。
∥A∥1=max1≤j≤n∑i=1m∣aij∣\Vert A\Vert_1=\max_{1\le j\le n}\sum_{i=1}^m|{a_{ij}}| ∥A∥1=1≤j≤nmaxi=1∑m∣aij∣
- 矩阵的2范数:矩阵ATAA^TAATA的最大特征值开平方根,上述矩阵AAA的2范数得到的最终结果是:10.0623。
∥A∥2=λmax(ATA)\Vert A\Vert_2=\sqrt{\lambda_{max}(A^T A)} ∥A∥2=λmax(ATA)
其中, λmax(ATA)\lambda_{max}(A^T A)λmax(ATA) 为 ATAA^T AATA 的特征值绝对值的最大值。
- 矩阵的无穷范数(行范数):矩阵的每一行上的元素绝对值先求和,再从中取个最大的,(行和最大),上述矩阵AAA的1范数先得到[6;16][6;16][6;16],再取最大的最终结果就是:16。
∥A∥∞=max1≤i≤n∑j=1n∣aij∣\Vert A\Vert_{\infty}=\max_{1\le i \le n}\sum_{j=1}^n |{a_{ij}}| ∥A∥∞=1≤i≤nmaxj=1∑n∣aij∣
矩阵的核范数:矩阵的奇异值(将矩阵svd分解)之和,这个范数可以用来低秩表示(因为最小化核范数,相当于最小化矩阵的秩——低秩),上述矩阵A最终结果就是:10.9287。
矩阵的L0范数:矩阵的非0元素的个数,通常用它来表示稀疏,L0范数越小0元素越多,也就越稀疏,上述矩阵AAA最终结果就是:6。
矩阵的L1范数:矩阵中的每个元素绝对值之和,它是L0范数的最优凸近似,因此它也可以表示稀疏,上述矩阵AAA最终结果就是:22。
矩阵的F范数:矩阵的各个元素平方之和再开平方根,它通常也叫做矩阵的L2范数,它的优点在它是一个凸函数,可以求导求解,易于计算,上述矩阵A最终结果就是:10.0995。
∥A∥F=(∑i=1m∑j=1n∣aij∣2)\Vert A\Vert_F=\sqrt{(\sum_{i=1}^m\sum_{j=1}^n{| a_{ij}|}^2)} ∥A∥F=(i=1∑mj=1∑n∣aij∣2)
- 矩阵的L21范数:矩阵先以每一列为单位,求每一列的F范数(也可认为是向量的2范数),然后再将得到的结果求L1范数(也可认为是向量的1范数),很容易看出它是介于L1和L2之间的一种范数,上述矩阵AAA最终结果就是:17.1559。
- 矩阵的 p范数
∥A∥p=(∑i=1m∑j=1n∣aij∣p)p\Vert A\Vert_p=\sqrt[p]{(\sum_{i=1}^m\sum_{j=1}^n{| a_{ij}|}^p)} ∥A∥p=p(i=1∑mj=1∑n∣aij∣p)
1.5 如何判断一个矩阵为正定?
- 顺序主子式全大于0;
- 存在可逆矩阵CCC使CTCC^TCCTC等于该矩阵;
- 正惯性指数等于nnn;
- 合同于单位矩阵EEE(即:规范形为EEE)
- 标准形中主对角元素全为正;
- 特征值全为正;
- 是某基的度量矩阵。
1.6 导数偏导计算
导数定义:
导数代表了在自变量变化趋于无穷小的时候,函数值的变化与自变量的变化的比值。几何意义是这个点的切线。物理意义是该时刻的(瞬时)变化率。
注意:在一元函数中,只有一个自变量变动,也就是说只存在一个方向的变化率,这也就是为什么一元函数没有偏导数的原因。在物理学中有平均速度和瞬时速度之说。平均速度有
v=stv=\frac{s}{t} v=ts
其中vvv表示平均速度,sss表示路程,ttt表示时间。这个公式可以改写为
vˉ=ΔsΔt=s(t0+Δt)−s(t0)Δt\bar{v}=\frac{\Delta s}{\Delta t}=\frac{s(t_0+\Delta t)-s(t_0)}{\Delta t} vˉ=ΔtΔs=Δts(t0+Δt)−s(t0)
其中Δs\Delta sΔs表示两点之间的距离,而Δt\Delta tΔt表示走过这段距离需要花费的时间。当Δt\Delta tΔt趋向于0(Δt→0\Delta t \to 0Δt→0)时,也就是时间变得很短时,平均速度也就变成了在t0t_0t0时刻的瞬时速度,表示成如下形式:
v(t0)=limΔt→0vˉ=limΔt→0ΔsΔt=limΔt→0s(t0+Δt)−s(t0)Δtv(t_0)=\lim_{\Delta t \to 0}{\bar{v}}=\lim_{\Delta t \to 0}{\frac{\Delta s}{\Delta t}}=\lim_{\Delta t \to 0}{\frac{s(t_0+\Delta t)-s(t_0)}{\Delta t}} v(t0)=Δt→0limvˉ=Δt→0limΔtΔs=Δt→0limΔts(t0+Δt)−s(t0)
实际上,上式表示的是路程sss关于时间ttt的函数在t=t0t=t_0t=t0处的导数。一般的,这样定义导数:如果平均变化率的极限存在,即有
limΔx→0ΔyΔx=limΔx→0f(x0+Δx)−f(x0)Δx\lim_{\Delta x \to 0}{\frac{\Delta y}{\Delta x}}=\lim_{\Delta x \to 0}{\frac{f(x_0+\Delta x)-f(x_0)}{\Delta x}} Δx→0limΔxΔy=Δx→0limΔxf(x0+Δx)−f(x0)
则称此极限为函数 y=f(x)y=f(x)y=f(x) 在点 x0x_0x0 处的导数。记作 f′(x0)f'(x_0)f′(x0) 或 y′∣x=x0y'\vert_{x=x_0}y′∣x=x0 或 dydx∣x=x0\frac{dy}{dx}\vert_{x=x_0}dxdy∣x=x0 或 df(x)dx∣x=x0\frac{df(x)}{dx}\vert_{x=x_0}dxdf(x)∣x=x0。
通俗地说,导数就是曲线在某一点切线的斜率。
偏导数:
既然谈到偏导数,那就至少涉及到两个自变量。以两个自变量为例,z=f(x,y),从导数到偏导数,也就是从曲线来到了曲面。曲线上的一点,其切线只有一条。但是曲面上的一点,切线有无数条。而偏导数就是指多元函数沿着坐标轴的变化率。
注意:直观地说,偏导数也就是函数在某一点上沿坐标轴正方向的的变化率。
设函数z=f(x,y)z=f(x,y)z=f(x,y)在点(x0,y0)(x_0,y_0)(x0,y0)的领域内有定义,当y=y0y=y_0y=y0时,zzz可以看作关于xxx的一元函数f(x,y0)f(x,y_0)f(x,y0),若该一元函数在x=x0x=x_0x=x0处可导,即有
limΔx→0f(x0+Δx,y0)−f(x0,y0)Δx=A\lim_{\Delta x \to 0}{\frac{f(x_0+\Delta x,y_0)-f(x_0,y_0)}{\Delta x}}=A Δx→0limΔxf(x0+Δx,y0)−f(x0,y0)=A
函数的极限AAA存在。那么称AAA为函数z=f(x,y)z=f(x,y)z=f(x,y)在点(x0,y0)(x_0,y_0)(x0,y0)处关于自变量xxx的偏导数,记作fx(x0,y0)f_x(x_0,y_0)fx(x0,y0)或∂z∂x∣y=y0x=x0\frac{\partial z}{\partial x}\vert_{y=y_0}^{x=x_0}∂x∂z∣y=y0x=x0或∂f∂x∣y=y0x=x0\frac{\partial f}{\partial x}\vert_{y=y_0}^{x=x_0}∂x∂f∣y=y0x=x0或zx∣y=y0x=x0z_x\vert_{y=y_0}^{x=x_0}zx∣y=y0x=x0。
偏导数在求解时可以将另外一个变量看做常数,利用普通的求导方式求解,比如z=3x2+xyz=3x^2+xyz=3x2+xy关于xxx的偏导数就为zx=6x+yz_x=6x+yzx=6x+y,这个时候yyy相当于xxx的系数。
某点(x0,y0)(x_0,y_0)(x0,y0)处的偏导数的几何意义为曲面z=f(x,y)z=f(x,y)z=f(x,y)与面x=x0x=x_0x=x0或面y=y0y=y_0y=y0交线在y=y0y=y_0y=y0或x=x0x=x_0x=x0处切线的斜率。
1.7 导数和偏导数有什么区别?
导数和偏导没有本质区别,如果极限存在,都是当自变量的变化量趋于0时,函数值的变化量与自变量变化量比值的极限。
- 一元函数,一个yyy对应一个xxx,导数只有一个。
- 二元函数,一个zzz对应一个xxx和一个yyy,有两个导数:一个是zzz对xxx的导数,一个是zzz对yyy的导数,称之为偏导。
- 求偏导时要注意,对一个变量求导,则视另一个变量为常数,只对改变量求导,从而将偏导的求解转化成了一元函数的求导。
1.8 特征值分解与特征向量
特征值分解可以得到特征值与特征向量;
特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么。
如果说一个向量v⃗\vec{v}v是方阵AAA的特征向量,将一定可以表示成下面的形式:
Aν=λνA\nu = \lambda \nu Aν=λν
λ\lambdaλ为特征向量v⃗\vec{v}v对应的特征值。特征值分解是将一个矩阵分解为如下形式:
A=Q∑Q−1A=Q\sum Q^{-1} A=Q∑Q−1
其中,QQQ是这个矩阵AAA的特征向量组成的矩阵,∑\sum∑是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)。也就是说矩阵AAA的信息可以由其特征值和特征向量表示。
1.9 奇异值与特征值有什么关系?
那么奇异值和特征值是怎么对应起来的呢?我们将一个矩阵AAA的转置乘以AAA,并对AATAA^TAAT求特征值,则有下面的形式:
(ATA)V=λV(A^TA)V = \lambda V (ATA)V=λV
这里VVV就是上面的右奇异向量,另外还有:
σi=λi,ui=1σiAμi\sigma_i = \sqrt{\lambda_i}, u_i=\frac{1}{\sigma_i}A\mu_i σi=λi,ui=σi1Aμi
这里的σ\sigmaσ就是奇异值,uuu就是上面说的左奇异向量。【证明那个哥们也没给】
奇异值σ\sigmaσ跟特征值类似,在矩阵∑\sum∑中也是从大到小排列,而且σ\sigmaσ的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前rrr(rrr远小于m、nm、nm、n)个的奇异值来近似描述矩阵,即部分奇异值分解:
Am×n≈Um×r∑r×rVr×nTA_{m\times n}\approx U_{m \times r}\sum_{r\times r}V_{r \times n}^T Am×n≈Um×rr×r∑Vr×nT
右边的三个矩阵相乘的结果将会是一个接近于AAA的矩阵,在这儿,rrr越接近于nnn,则相乘的结果越接近于AAA。
1.10 机器学习为什么要使用概率?
事件的概率是衡量该事件发生的可能性的量度。虽然在一次随机试验中某个事件的发生是带有偶然性的,但那些可在相同条件下大量重复的随机试验却往往呈现出明显的数量规律。
机器学习除了处理不确定量,也需处理随机量。不确定性和随机性可能来自多个方面,使用概率论来量化不确定性。
概率论在机器学习中扮演着一个核心角色,因为机器学习算法的设计通常依赖于对数据的概率假设。
例如在机器学习(Andrew Ng)的课中,会有一个朴素贝叶斯假设就是条件独立的一个例子。该学习算法对内容做出假设,用来分辨电子邮件是否为垃圾邮件。假设无论邮件是否为垃圾邮件,单词x出现在邮件中的概率条件独立于单词y。很明显这个假设不是不失一般性的,因为某些单词几乎总是同时出现。然而,最终结果是,这个简单的假设对结果的影响并不大,且无论如何都可以让我们快速判别垃圾邮件。
1.11 变量与随机变量有什么区别?
随机变量(random variable)
表示随机现象(在一定条件下,并不总是出现相同结果的现象称为随机现象)中各种结果的实值函数(一切可能的样本点)。例如某一时间内公共汽车站等车乘客人数,电话交换台在一定时间内收到的呼叫次数等,都是随机变量的实例。
随机变量与模糊变量的不确定性的本质差别在于,后者的测定结果仍具有不确定性,即模糊性。
变量与随机变量的区别:
当变量的取值的概率不是1时,变量就变成了随机变量;当随机变量取值的概率为1时,随机变量就变成了变量。
比如:
当变量xxx值为100的概率为1的话,那么x=100x=100x=100就是确定了的,不会再有变化,除非有进一步运算.
当变量xxx的值为100的概率不为1,比如为50的概率是0.5,为100的概率是0.5,那么这个变量就是会随不同条件而变化的,是随机变量,取到50或者100的概率都是0.5,即50%。
1.12 常见概率分布
1.13 举例理解条件概率
条件概率公式如下:
P(A/B)=P(A∩B)/P(B)P(A/B) = P(A\cap B) / P(B) P(A/B)=P(A∩B)/P(B)
说明:在同一个样本空间Ω\OmegaΩ中的事件或者子集AAA与BBB,如果随机从Ω\OmegaΩ中选出的一个元素属于BBB,那么下一个随机选择的元素属于AAA 的概率就定义为在BBB的前提下AAA的条件概率。
根据文氏图,可以很清楚地看到在事件B发生的情况下,事件A发生的概率就是P(A⋂B)P(A\bigcap B)P(A⋂B)除以P(B)P(B)P(B)。
举例:一对夫妻有两个小孩,已知其中一个是女孩,则另一个是女孩子的概率是多少?(面试、笔试都碰到过)
穷举法:已知其中一个是女孩,那么样本空间为男女,女女,女男,则另外一个仍然是女生的概率就是1/3。
条件概率法:P(女∣女)=P(女女)/P(女)P(女|女)=P(女女)/P(女)P(女∣女)=P(女女)/P(女),夫妻有两个小孩,那么它的样本空间为女女,男女,女男,男男,则P(女女)P(女女)P(女女)为1/4,P(女)=1−P(男男)=3/4P(女)= 1-P(男男)=3/4P(女)=1−P(男男)=3/4,所以最后1/31/31/3。
这里大家可能会误解,男女和女男是同一种情况,但实际上类似姐弟和兄妹是不同情况。
1.14 联合概率与边缘概率联系区别?
区别:
联合概率:联合概率指类似于P(X=a,Y=b)P(X=a,Y=b)P(X=a,Y=b)这样,包含多个条件,且所有条件同时成立的概率。联合概率是指在多元的概率分布中多个随机变量分别满足各自条件的概率。
边缘概率:边缘概率是某个事件发生的概率,而与其它事件无关。边缘概率指类似于P(X=a)P(X=a)P(X=a),P(Y=b)P(Y=b)P(Y=b)这样,仅与单个随机变量有关的概率。
联系:
联合分布可求边缘分布,但若只知道边缘分布,无法求得联合分布。
1.15 条件概率的链式法则
由条件概率的定义,可直接得出下面的乘法公式:
乘法公式 设A,BA, BA,B是两个事件,并且P(A)>0P(A) > 0P(A)>0, 则有
P(AB)=P(B∣A)P(A)P(AB) = P(B|A)P(A) P(AB)=P(B∣A)P(A)
推广
P(ABC)=P(C∣AB)P(B∣A)P(A)P(ABC)=P(C|AB)P(B|A)P(A) P(ABC)=P(C∣AB)P(B∣A)P(A)
一般地,用归纳法可证:若P(A1A2...An)>0P(A_1A_2...A_n)>0P(A1A2...An)>0,则有
P(A1A2...An)=P(An∣A1A2...An−1)P(An−1∣A1A2...An−2)...P(A2∣A1)P(A1)=P(A1)∏i=2nP(Ai∣A1A2...Ai−1)P(A_1A_2...A_n)=P(A_n|A_1A_2...A_{n-1})P(A_{n-1}|A_1A_2...A_{n-2})...P(A_2|A_1)P(A_1) =P(A_1)\prod_{i=2}^{n}P(A_i|A_1A_2...A_{i-1}) P(A1A2...An)=P(An∣A1A2...An−1)P(An−1∣A1A2...An−2)...P(A2∣A1)P(A1)=P(A1)i=2∏nP(Ai∣A1A2...Ai−1)
任何多维随机变量联合概率分布,都可以分解成只有一个变量的条件概率相乘形式。
1.16 独立性和条件独立性
独立性
两个随机变量xxx和yyy,概率分布表示成两个因子乘积形式,一个因子只包含xxx,另一个因子只包含yyy,两个随机变量相互独立(independent)。
条件有时为不独立的事件之间带来独立,有时也会把本来独立的事件,因为此条件的存在,而失去独立性。
举例:P(XY)=P(X)P(Y)P(XY)=P(X)P(Y)P(XY)=P(X)P(Y), 事件XXX和事件YYY独立。此时给定ZZZ,
P(X,Y∣Z)̸=P(X∣Z)P(Y∣Z)P(X,Y|Z) \not = P(X|Z)P(Y|Z) P(X,Y∣Z)̸=P(X∣Z)P(Y∣Z)
事件独立时,联合概率等于概率的乘积。这是一个非常好的数学性质,然而不幸的是,无条件的独立是十分稀少的,因为大部分情况下,事件之间都是互相影响的。
条件独立性
给定ZZZ的情况下,XXX和YYY条件独立,当且仅当
X⊥Y∣Z  ⟺  P(X,Y∣Z)=P(X∣Z)P(Y∣Z)X\bot Y|Z \iff P(X,Y|Z) = P(X|Z)P(Y|Z) X⊥Y∣Z⟺P(X,Y∣Z)=P(X∣Z)P(Y∣Z)
XXX和YYY的关系依赖于ZZZ,而不是直接产生。
举例定义如下事件:
XXX:明天下雨;
YYY:今天的地面是湿的;
ZZZ:今天是否下雨;
ZZZ事件的成立,对XXX和YYY均有影响,然而,在ZZZ事件成立的前提下,今天的地面情况对明天是否下雨没有影响。
1.17 期望、方差、协方差、相关系数总结
期望
在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和。它反映随机变量平均取值的大小。
- 线性运算: E(ax+by+c)=aE(x)+bE(y)+cE(ax+by+c) = aE(x)+bE(y)+cE(ax+by+c)=aE(x)+bE(y)+c
- 推广形式: E(∑k=1nakxk+c)=∑k=1nakE(xk)+cE(\sum_{k=1}^{n}{a_kx_k+c}) = \sum_{k=1}^{n}{a_kE(x_k)+c}E(∑k=1nakxk+c)=∑k=1nakE(xk)+c
- 函数期望:设f(x)f(x)f(x)为xxx的函数,则f(x)f(x)f(x)的期望为
- 离散函数: E(f(x))=∑k=1nf(xk)P(xk)E(f(x))=\sum_{k=1}^{n}{f(x_k)P(x_k)}E(f(x))=∑k=1nf(xk)P(xk)
- 连续函数: E(f(x))=∫−∞+∞f(x)p(x)dxE(f(x))=\int_{-\infty}^{+\infty}{f(x)p(x)dx}E(f(x))=∫−∞+∞f(x)p(x)dx
注意:
- 函数的期望不等于期望的函数,即E(f(x))=f(E(x))E(f(x))=f(E(x))E(f(x))=f(E(x))
- 一般情况下,乘积的期望不等于期望的乘积。
- 如果XXX和YYY相互独立,则E(xy)=E(x)E(y)E(xy)=E(x)E(y)E(xy)=E(x)E(y)。
方差
概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。方差是一种特殊的期望。定义为:
Var(x)=E((x−E(x))2)Var(x) = E((x-E(x))^2) Var(x)=E((x−E(x))2)
方差性质:
1)Var(x)=E(x2)−E(x)2Var(x) = E(x^2) -E(x)^2Var(x)=E(x2)−E(x)2
2)常数的方差为0;
3)方差不满足线性性质;
4)如果XXX和YYY相互独立, Var(ax+by)=a2Var(x)+b2Var(y)Var(ax+by)=a^2Var(x)+b^2Var(y)Var(ax+by)=a2Var(x)+b2Var(y)
协方差
协方差是衡量两个变量线性相关性强度及变量尺度。 两个随机变量的协方差定义为:
Cov(x,y)=E((x−E(x))(y−E(y)))Cov(x,y)=E((x-E(x))(y-E(y))) Cov(x,y)=E((x−E(x))(y−E(y)))
方差是一种特殊的协方差。当X=YX=YX=Y时,Cov(x,y)=Var(x)=Var(y)Cov(x,y)=Var(x)=Var(y)Cov(x,y)=Var(x)=Var(y)。
协方差性质:
1)独立变量的协方差为0。
2)协方差计算公式:
Cov(∑i=1maixi,∑j=1mbjyj)=∑i=1m∑j=1maibjCov(xiyi)Cov(\sum_{i=1}^{m}{a_ix_i}, \sum_{j=1}^{m}{b_jy_j}) = \sum_{i=1}^{m} \sum_{j=1}^{m}{a_ib_jCov(x_iy_i)} Cov(i=1∑maixi,j=1∑mbjyj)=i=1∑mj=1∑maibjCov(xiyi)
3)特殊情况:
Cov(a+bx,c+dy)=bdCov(x,y)Cov(a+bx, c+dy) = bdCov(x, y) Cov(a+bx,c+dy)=bdCov(x,y)
相关系数
相关系数是研究变量之间线性相关程度的量。两个随机变量的相关系数定义为:
Corr(x,y)=Cov(x,y)Var(x)Var(y)Corr(x,y) = \frac{Cov(x,y)}{\sqrt{Var(x)Var(y)}} Corr(x,y)=Var(x)Var(y)Cov(x,y)
相关系数的性质:
1)有界性。相关系数的取值范围是 ,可以看成无量纲的协方差。
2)值越接近1,说明两个变量正相关性(线性)越强。越接近-1,说明负相关性越强,当为0时,表示两个变量没有相关性。
机器学习的数学基础 矩阵论与概率论相关推荐
- 两个卡方分布之和_机器学习算法数学基础之 —— 统计与概率论篇(3)
核心问题 发现数字的隐藏规律,完成分类. 核心技能 最大似然估计 给定一个概率分布 ,已知其概率密度函数(连续分布)或概率质量函数(离散分布)为 ,以及一个分布参数 ,我们可以从这个分布中抽出一个具有 ...
- 有人把机器学习的数学基础整理成了专辑(附下载 )
来源:机器学习初学者 本文约2600字,建议阅读6分钟. 本文推荐一份机器学习初学者专辑. 公众号(DatapiTHU)后台回复"20200706"获取专辑下载 机器学习,需要一定 ...
- 机器学习理论引导 电子版_机器学习理论篇1:机器学习的数学基础(2)
本节主要就是讲述的机器学习的数学基础,提到数学基础,可能一眼就会是满眼的枯燥.没意思,但是成就英雄的路上注定了孤独,要想要真正的在学术上有所突破就必须挨得住寂寞,受得住孤独,才能真正的走进熟悉直到完全 ...
- 非常适合初学者的机器学习的数学基础笔记.pdf
本文推荐一份机器学习数学基础专辑,非常适合初学者入门,文末提供下载. 机器学习,需要一定的数学基础,也需要一定的代码能力.机器学习从业者数学基础不扎实,只会用一些工具和框架,相当于某些武术家只会耍套路 ...
- 干货|机器学习的数学基础
机器学习基础 Author:黄博 转自:机器学习初学者 机器学习,需要一定的数学基础,也需要一定的代码能力.机器学习从业者数学基础不扎实,只会用一些工具和框架,相当于某些武术家只会耍套路,外行人觉得很 ...
- 机器学习的数学基础 - 信息论
机器学习的数学基础 - 信息论 信息论 信息论本来是通信中的概念,但是其核心思想"熵"在机器学习中也得到了广泛的应用.比如决策树模型ID3,C4.5中是利用信息增益来划分特征而 ...
- 机器学习的数学基础(1)--Dirichlet分布
这一系列(机器学习的数学基础)主要包括目前学习过程中回过头复习的基础数学知识的总结. 基础知识:conjugate priors共轭先验 共轭先验是指这样一种概率密度:它使得后验概率的密度函数与先验概 ...
- 矩阵迹的性质_机器学习的数学基础 之 矩阵范数 — 我的长度我做主?
热点追踪 / 数学基础 / 编程基础 / 实战技术 字数: 3925 作者: 小组成员机器学习与数学 出品 0x01.矩阵的诞生 在数学史上,矩阵的概念提出得比较晚,但可以朔源到两千多年前就提出的线性 ...
- 【机器学习|数学基础】Mathematics for Machine Learning系列之图论(8):割边、割集、割点
文章目录 前言 系列文章 3.2 割边.割集.割点 3.2.1 割边与割集 定理3.4 推论3.4 定理3.5 补充知识 定义3.3:割集 定义3.4 定理3.6 生成树与割集的对比 3.2.2 割点 ...
最新文章
- 报告:最大化人工智能(AI)机遇
- 《Pro SQL Server Internals》部分翻译(P155-165)
- The RAII Programming Idiom
- mysql 多项式_多项式拟合和最小二乘问题
- 机器学习 vs 深度学习到底有啥区别,为什么更多人选择机器学习
- 冯诺依曼原理中计算机包括功能部件,水泥越细,强度发展越快,对混凝土性能也越好...
- Linux ping命令、Linux kill命令、Linux logname命令、 Linux logout命令
- 编译后错误提示为pls-00103:出现符号在需要下列之一时:begin case declare
- 控制文件夹递归深度_TensorFlow、Pytorch和Keras的样例资源(深度学习初学者必须收藏)...
- FJUT 借教室 (线段树区间查询+区间修改)
- 2020软考数据库系统工程师-下午案例分析真题解析视频-任铄-专题视频课程
- dig命令查询结果解析
- 火狐浏览器模拟发送post请求
- 《黑手党2》全部50本花花公子杂志收集攻略
- TT 的旅行日记(Dijkstra)
- 赵鑫:强化学习在京东广告序列推荐中的应用
- python获取交互式ssh shell
- TFP-161/100/6MM/6MM/MPU在红尘里,靠近菩提
- iOS -- 开源项目和库
- 简单Java类映射转换