Kernel Smoothing — Local polynomial regression

  • 1. 核平滑方法
    • 代码实现
  • 2. 局部多项式核回归
    • 2.1 加权最小二乘法(Weighted least squares)
    • 2.2 局部多项式核回归(Local polynomial kernel regression)
    • 代码实现

\qquad 本文以一维核平滑为例,假设有观测数据集 { x i , y i } i = 0 N , x i , y i ∈ R \{x_i,y_i\}_{i=0}^N\ ,x_i,y_i\in R {xi​,yi​}i=0N​ ,xi​,yi​∈R,目标是为了找到一个回归函数 y = f ( x ) y=f(x) y=f(x) 来拟合观测数据。
\qquad

1. 核平滑方法

\qquad 核平滑 (Kernel Smoothing) \text{(Kernel\ Smoothing)} (Kernel Smoothing)的基本思想:
( 1 ) \qquad(1) (1) 只使用与目标点 x i x_i xi​ 邻近位置 x ∈ N i = { x ∣ ∣ ∣ x − x i ∣ ∣ < δ } x\in\mathcal N_i=\{x\ \big|\ ||x-x_i||<\delta\} x∈Ni​={x ∣ ∣​ ∣∣x−xi​∣∣<δ} 的一些观测点来进行拟合
( 2 ) \qquad(2) (2) 这种局部化是通过核函数 (kernel function) \text{(kernel\ function)} (kernel function) 来刻画
\qquad\qquad 离目标点 x i x_i xi​ 越近的观测点对 x i x_i xi​ 的估计影响更大、具有更大的权值
\qquad\qquad 离目标点 x i x_i xi​ 越远的观测点对 x i x_i xi​ 的估计影响更小、具有更小的权值

\qquad 例如,图 1 1 1 中的高斯核函数(其中 h h h 为标准差,控制邻域宽度)

K ( x , x i ) = K ( ∥ x − x i ∥ ) = e − ( x − x i ) 2 2 h 2 , ∀ x ∈ N i \qquad\qquad K(x,x_i)=K(\parallel x-x_i\parallel)=e^{-\frac{(x-x_i)^2}{2h^2}},\ \forall\ x\in\mathcal N_i K(x,xi​)=K(∥x−xi​∥)=e−2h2(x−xi​)2​, ∀ x∈Ni​

\qquad

图1 对于目标点为 ( x i , y i ) (x_i,y_i) (xi​,yi​) 处的黑色实心点, x x x 轴上的红色实心点表示与 x i x_i xi​ 相邻的位置 x ∈ N i x\in\mathcal N_i x∈Ni​,红色空心点为 x x x 轴上红色实心点对应的高斯权值
另外,图中还画出了一部分代表观测数据的黑色空心点处的高斯权值曲线

\qquad 核平滑,也就是局部加权平均,核回归函数为:

y = f ( x ) = ∑ i = 0 N y i K ( x , x i ) ∑ i = 0 N K ( x , x i ) \qquad\qquad y=f(x)=\dfrac{\sum\limits_{i=0}^Ny_iK(x,x_i)}{\sum\limits_{i=0}^NK(x,x_i)} y=f(x)=i=0∑N​K(x,xi​)i=0∑N​yi​K(x,xi​)​

\qquad

图2 常见的三种核函数:Epanechnikov和Tri-cube是紧支的,而Gaussian是非紧支的。
图片取自于《The Elements of Statistical Learning - Data Mining, Inference, and Prediction》Fig 6.2

Epanechnikov \qquad \text{Epanechnikov} Epanechnikov 二次核:

K ( x , x i ) = D ( ∥ x − x i ∥ h ) \qquad\qquad K(x,x_i)=D\left(\dfrac{\parallel x-x_i\parallel}{h}\right) K(x,xi​)=D(h∥x−xi​∥​),其中 h h h 确定 x i x_i xi​ 的邻域宽度。

D ( t ) = { 3 4 ( 1 − t 2 ) , ∣ t ∣ < 1 0 , 其他 \qquad\qquad D(t)=\left\{\begin{matrix}\frac{3}{4}(1-t^2)&\qquad,|t|<1\\ \\ 0 &\qquad,其他 \end{matrix}\right. D(t)=⎩ ⎨ ⎧​43​(1−t2)0​,∣t∣<1,其他​

Tri-cube \qquad \text{Tri-cube} Tri-cube 核:

D ( t ) = { ( 1 − ∣ t ∣ 3 ) 3 , ∣ t ∣ < 1 0 , 其他 \qquad\qquad D(t)=\left\{\begin{matrix}(1-|t|^3)^3 & \qquad ,|t|<1\\ \\ 0 &\qquad,其他 \end{matrix}\right. D(t)=⎩ ⎨ ⎧​(1−∣t∣3)30​,∣t∣<1,其他​

\qquad 显然, h h h 值越小,相同情况下的 t = ∥ x − x i ∥ h t=\dfrac{\parallel x-x_i\parallel}{h} t=h∥x−xi​∥​ 越大,对于紧支撑的核函数 D ( t ) D(t) D(t) 而言,用于实现局部加权平均的局部观测数据就越少。
\qquad 反之, h h h 值越大,相同情况下的 t = ∥ x − x i ∥ h t=\dfrac{\parallel x-x_i\parallel}{h} t=h∥x−xi​∥​ 越小,参与局部加权平均的局部观测数据就越多。
\qquad

代码实现

import numpy as np
import matplotlib.pyplot as pltdef kernel_regression(x, h, h0):weight_e = lambda t:  (1-t**2)*3/4 weight_t = lambda t:  (1-t**3)**3 y = np.sin(4*x)y_noise = y + np.random.randn(len(x))/3num = len(x)y_rec_e = np.zeros(num)y_rec_t = np.zeros(num)y_rec_g = np.zeros(num)for i in range(num):dist = np.abs(x-x[i])/h  # epanechnikovw_e = weight_e(dist)*np.where(dist<=1,1,0)              y_rec_e[i] = np.sum(y_noise*w_e)/np.sum(w_e)# tri-cubew_t = weight_t(dist)*np.where(dist<=1,1,0) y_rec_t[i] = np.sum(y_noise*w_t)/np.sum(w_t)# gaussian kernel    gaussian_kernel = lambda d,h: np.exp(-dist**2/(2*(h**2)))/(np.sqrt(2*np.pi)*h)for i in range(num):dist = np.abs(x-x[i])w = gaussian_kernel(dist,h0)y_rec_g[i] = np.sum(y_noise*w)/np.sum(w)        return y_rec_g, y_rec_e, y_rec_t, y_noise, yif __name__ == '__main__':    plt.figuresnum = 100h = 0.3h0 = 0.1x = np.linspace(0,1,snum)y_rec_g, y_rec_e, y_rec_t, y_noise, y = kernel_regression(x,h,h0)plt.plot(x,y)plt.plot(x,y_noise,'yo',markerfacecolor='none')plt.plot(x,y_rec_e,'k')plt.plot(x,y_rec_t,'r')plt.plot(x,y_rec_g,'m')    plt.legend(labels=['original data','noise data','epanechnikov','tri-cube','gaussian'],loc='upper right')plt.title('kernel regression:y=sin(4x),h=0.3') plt.show()

运行结果
\qquad
\qquad
\qquad

数据集不同时, h h h 的值也要进行相应调整。

\qquad

2. 局部多项式核回归

\qquad 由于核函数在边界区域上无法满足对称性(例如,图 1 1 1中左侧边界点 x = − 4 x=-4 x=−4 处只有右侧邻域中的观测点可以用,右侧边界点 x = 4 x=4 x=4 处只有左侧邻域中的观测点可以用),局部加权平均在边界处会出现较大的误差(如上图所示),局部多项式回归可以缓解这一问题。

2.1 加权最小二乘法(Weighted least squares)

\qquad 如下图所示,已知观测样本集 { x i , y i } i = 0 N \{\boldsymbol x_{i},y_{i}\}_{i=0}^{N} {xi​,yi​}i=0N​,采用线性模型:

\qquad\qquad φ ( x ) = ∑ n = 0 M a n φ n ( x ) = a 0 φ 0 ( x ) + a 1 φ 1 ( x ) + ⋯ + a M φ M ( x ) = θ T ϕ ( x ) = ϕ T ( x ) θ \begin{aligned}\varphi(\boldsymbol x)&=\sum\limits_{n=0}^{M}a_{n}\varphi_{n}(\boldsymbol x)=a_{0}\varphi_{0}(\boldsymbol x)+a_{1}\varphi_{1}(\boldsymbol x)+\cdots+a_{M}\varphi_{M}(\boldsymbol x)\\ &=\boldsymbol \theta^T\boldsymbol\phi(\boldsymbol x)=\boldsymbol\phi^T(\boldsymbol x)\boldsymbol \theta \end{aligned} φ(x)​=n=0∑M​an​φn​(x)=a0​φ0​(x)+a1​φ1​(x)+⋯+aM​φM​(x)=θTϕ(x)=ϕT(x)θ​

\qquad 其中, θ = [ a 0 , a 1 , ⋯ , a M ] T \boldsymbol\theta=[a_0,a_1,\cdots,a_M]^T θ=[a0​,a1​,⋯,aM​]T, ϕ ( x ) = [ φ 0 ( x ) , φ 1 ( x ) , ⋯ , φ M ( x ) ] T \boldsymbol\phi(\boldsymbol x)=[\varphi_0(\boldsymbol x),\varphi_1(\boldsymbol x),\cdots,\varphi_M(\boldsymbol x)]^T ϕ(x)=[φ0​(x),φ1​(x),⋯,φM​(x)]T

\qquad
\qquad 上图中,线性模型关于每个观测点 ( x i , y i ) (\boldsymbol x_{i},y_{i}) (xi​,yi​) 的 ℓ 2 \ell_{2} ℓ2​ 损失(平方误差)为: [ φ ( x i ) − y i ] 2 [\varphi(\boldsymbol x_i)-y_i]^2 [φ(xi​)−yi​]2

\qquad 假设每个观测点的对误差的影响各不相同,因此,引入加权系数 { w i } i = 0 N \{w_i\}_{i=0}^{N} {wi​}i=0N​,将“整个数据集的总误差”设为加权损失函数 (weighted loss function) \text{(weighted\ loss\ function)} (weighted loss function),也就是:

\qquad\qquad J ( θ ) = w 0 [ φ ( x 0 ) − y 0 ] 2 + w 1 [ φ ( x 1 ) − y 1 ] 2 + ⋯ + w N [ φ ( x N ) − y N ] 2 = ∑ i = 0 N w i [ φ ( x i ) − y i ] 2 = ∑ i = 0 N w i [ θ T ϕ ( x i ) − y i ] 2 = ( Φ θ − y ) T W ( Φ θ − y ) \begin{aligned}J(\boldsymbol\theta)&=w_0[\varphi(\boldsymbol x_0)-y_0]^2+w_1[\varphi(\boldsymbol x_1)-y_1]^2+\cdots+w_N[\varphi(\boldsymbol x_N)-y_N]^2\\ &=\displaystyle\sum_{i=0}^{N}w_i[\varphi(\boldsymbol x_i)-y_i]^2\\ &=\displaystyle\sum_{i=0}^{N}w_i[\boldsymbol \theta^T\boldsymbol\phi(\boldsymbol x_i)-y_i]^2\\ &= (\Phi\boldsymbol\theta-\boldsymbol y)^TW(\Phi\boldsymbol\theta-\boldsymbol y) \\ \end{aligned} J(θ)​=w0​[φ(x0​)−y0​]2+w1​[φ(x1​)−y1​]2+⋯+wN​[φ(xN​)−yN​]2=i=0∑N​wi​[φ(xi​)−yi​]2=i=0∑N​wi​[θTϕ(xi​)−yi​]2=(Φθ−y)TW(Φθ−y)​

\qquad 其中, y = [ y 0 , y 1 , ⋯ , y N ] T \boldsymbol y=[y_0,y_1,\cdots,y_N]^T y=[y0​,y1​,⋯,yN​]T

\qquad     W = [ w 0 w 1 ⋱ w N ] W=\left[\begin{matrix}w_0& & & \\ &w_1 & & \\ & &\ddots & \\ & & &w_N \end{matrix}\right] W=⎣ ⎡​w0​​w1​​⋱​wN​​⎦ ⎤​

\qquad     Φ = [ ϕ ( x 0 ) T ϕ ( x 1 ) T ⋮ ϕ ( x N ) T ] = [ φ 0 ( x 0 ) φ 1 ( x 0 ) ⋯ φ M ( x 0 ) φ 0 ( x 1 ) φ 1 ( x 1 ) ⋯ φ M ( x 1 ) ⋮ ⋮ ⋮ φ 0 ( x N ) φ 1 ( x N ) ⋯ φ M ( x N ) ] \Phi=\left[\begin{matrix}\boldsymbol\phi(\boldsymbol x_0)^T\\ \boldsymbol\phi(\boldsymbol x_1)^T\\ \vdots\\ \boldsymbol\phi(\boldsymbol x_N)^T \end{matrix}\right]=\left[\begin{matrix}\varphi_0(\boldsymbol x_0)&\varphi_1(\boldsymbol x_0)&\cdots&\varphi_M(\boldsymbol x_0)\\ \varphi_0(\boldsymbol x_1)&\varphi_1(\boldsymbol x_1)&\cdots&\varphi_M(\boldsymbol x_1)\\ \vdots&\vdots&\ &\vdots \\ \varphi_0(\boldsymbol x_N)&\varphi_1(\boldsymbol x_N)&\cdots&\varphi_M(\boldsymbol x_N)\end{matrix}\right] Φ=⎣ ⎡​ϕ(x0​)Tϕ(x1​)T⋮ϕ(xN​)T​⎦ ⎤​=⎣ ⎡​φ0​(x0​)φ0​(x1​)⋮φ0​(xN​)​φ1​(x0​)φ1​(x1​)⋮φ1​(xN​)​⋯⋯ ⋯​φM​(x0​)φM​(x1​)⋮φM​(xN​)​⎦ ⎤​
\qquad
\qquad 损失函数 J ( θ ) J(\boldsymbol\theta) J(θ) 对系数 θ \boldsymbol\theta θ 求偏导:

\qquad\qquad ∂ J ( θ ) ∂ θ = 2 Φ T W Φ θ − 2 Φ T W y = 0 \begin{aligned}\dfrac{\partial J(\boldsymbol\theta)}{\partial \boldsymbol\theta}&=2\Phi^TW\Phi\theta-2\Phi^TW\boldsymbol y=0 \end{aligned} ∂θ∂J(θ)​​=2ΦTWΦθ−2ΦTWy=0​

\qquad 可求得:

\qquad\qquad θ = ( Φ T W Φ ) − 1 Φ T W y \boldsymbol\theta=(\Phi^TW\Phi)^{-1}\Phi^TW\boldsymbol y θ=(ΦTWΦ)−1ΦTWy
\qquad
\qquad 关于本节内容更详细的解释,请参考《函数的最佳逼近问题:最小二乘法》
\qquad

2.2 局部多项式核回归(Local polynomial kernel regression)

\qquad 局部加权回归,是在每个目标点 x i x_i xi​ 单独求一个加权最小二乘解。

\qquad 若最小二乘逼近采用多项式模型

\qquad\qquad φ ( x ) = ∑ n = 0 M a n φ n ( x ) = a 0 φ 0 ( x ) + a 1 φ 1 ( x ) + ⋯ + a M φ M ( x ) = a 0 + a 1 x + a 2 x 2 + ⋯ + a M x M = ∑ n = 0 M a n x n \begin{aligned}\varphi(x)&=\sum\limits_{n=0}^{M}a_{n}\varphi_{n}(x)=a_{0}\varphi_{0}(x)+a_{1}\varphi_{1}(x)+\cdots+a_{M}\varphi_{M}(x)\\ &=a_0+a_1x+a_2x^2+\cdots+a_Mx^M\\ &=\sum\limits_{n=0}^{M}a_{n}x^n \end{aligned} φ(x)​=n=0∑M​an​φn​(x)=a0​φ0​(x)+a1​φ1​(x)+⋯+aM​φM​(x)=a0​+a1​x+a2​x2+⋯+aM​xM=n=0∑M​an​xn​

\qquad\qquad 也就是: φ 0 ( x ) = 1 \varphi_{0}(x)=1 φ0​(x)=1 和 φ n ( x ) = x n , n = 1 ∼ M \varphi_{n}(x)=x^n,\ n=1\sim M φn​(x)=xn, n=1∼M

\qquad 特别地,当 M = 1 M=1 M=1 时,多项式模型就变成了线性回归模型
\qquad     当 M = 2 M=2 M=2 时,多项式模型就变成了抛物线回归模型

\qquad 因此,局部加权回归可以描述为:
( 1 ) \qquad(1) (1) 采用 M M M阶多项式模型来求加权最小二乘解
( 2 ) \qquad(2) (2) 采用高斯核函数 K ( x , x i ) = K ( ∥ x − x i ∥ ) K(x,x_i)=K(\parallel x-x_i\parallel) K(x,xi​)=K(∥x−xi​∥) 来刻画目标点 x i x_i xi​ 的邻域位置 x ∈ N i = { x ∣ ∥ x − x i ∥ < δ } x\in \mathcal N_i=\{x\ \big|\parallel x-x_i\parallel\ <\delta\} x∈Ni​={x ∣ ∣​∥x−xi​∥ <δ} 处观测数据的权值,作为加权最小二乘解中的权值

\qquad 也就是求每个观测点 x i x_i xi​ 的加权最小二乘解,此时的目标函数为:

\qquad\qquad J i ( θ ) = ∑ x j ∈ N i K ( x i , x j ) [ y j − ∑ n = 0 M a n ( x i ) x j n ] 2 = ∑ x j ∈ N i K ( x i , x j ) [ y j − θ i T ϕ ( x j ) ] 2 \begin{aligned}J_i(\boldsymbol\theta)&=\displaystyle\sum_{x_j\in\mathcal N_i}K(x_i,x_j)\left[y_j-\sum\limits_{n=0}^{M}a_{n}(x_i)x_j^n\right]^2\\ &=\displaystyle\sum_{x_j\in\mathcal N_i}K(x_i,x_j)[y_j-\boldsymbol \theta_i^T\boldsymbol\phi(x_j)]^2 \end{aligned} Ji​(θ)​=xj​∈Ni​∑​K(xi​,xj​)[yj​−n=0∑M​an​(xi​)xjn​]2=xj​∈Ni​∑​K(xi​,xj​)[yj​−θiT​ϕ(xj​)]2​

\qquad 其中, θ i = [ a 0 ( x i ) , a 1 ( x i ) , a 2 ( x i ) , ⋯ , a M ( x i ) ] T \boldsymbol\theta_i=[a_0(x_i),a_1(x_i),a_2(x_i),\cdots,a_M(x_i)]^T θi​=[a0​(xi​),a1​(xi​),a2​(xi​),⋯,aM​(xi​)]T, ϕ ( x ) = [ 1 , x , x 2 , ⋯ , x M ] T \boldsymbol\phi(x)=[1,x,x^2,\cdots,x^M]^T ϕ(x)=[1,x,x2,⋯,xM]T

\qquad 因此,对观测点 x i x_i xi​ 的(关于局部数据集的)目标函数 J i ( θ ) J_i(\boldsymbol\theta) Ji​(θ) 可求出在观测点 x i x_i xi​ 的加权最小二乘解 θ i \boldsymbol\theta_i θi​,也就是用与观测点 x i x_i xi​ 邻近的局部观测数据来拟合局部曲线。

\qquad 局部多项式核回归的示意图如图 3 3 3 所示:
\qquad

图3 在目标点为 ( x i , y i ) (x_i,y_i) (xi​,yi​) 处的局部多项式核回归示意图(假设蓝色曲线为“局部多项式核回归”的结果)
(1)待求解的黑色实心点目标值 y i y_i yi​ 对应于 x x x 轴的位置为黑色空心点 x i x_i xi​
(2)在示意图中,使用了 x i x_i xi​ 位置的左边和右边的 4 4 4 个邻近位置的观测数据(红色实心点)作为“局部观测数据集” N i \mathcal{N}_i Ni​,来求加权最小二乘解 f ~ ( x ) \tilde{f}(x) f~​(x)
(3)各个局部观测数据 x ∈ N i x\in\mathcal N_i x∈Ni​ 的权值由高斯核函数求得,即图中的“+”号所表示的
(4)将局部多项式核回归的解 f ~ ( x i ) \tilde{f}(x_i) f~​(xi​) 作为黑色空心点位置 x i x_i xi​ 的目标值,即 y i = f ~ ( x i ) y_i=\tilde{f}(x_i) yi​=f~​(xi​)

代码实现

import numpy as np
import matplotlib.pyplot as pltdef gen_data(x):y = x ** 2 + 30 * np.sin(x)y_noise = y + np.random.randn(len(x))*5return y, y_noise#基于多项式模型的加权最小二乘法
def weighted_least_squares(y_noise,x,M,W):    design_matrix = np.asmatrix(np.ones(len(x))).Tfor i in range(1,M+1):arr = np.asmatrix(np.power(x,i)).Tdesign_matrix  = np.concatenate((design_matrix ,arr),axis=1)    coef = (design_matrix.T*W*design_matrix).I*(design_matrix.T*W*(np.asmatrix(y_noise).T))    return np.asarray(coef)def local_polynomial_kernel_regression(y_noise,x,M,width,sigma):kernel = lambda x,c,sig: np.exp(-(x-x[c])**2/(2*(sig**2)))/(np.sqrt(2*np.pi)*sig)for i in range(len(x)):local_y = y_noise[max(0,i-width):min(len(x),i+width)] local_x = x[max(0,i-width):min(len(x),i+width)]weight = kernel(x,i,sigma)#计算邻域各位置的权值local_weight = weight[max(0,i-width):min(len(x),i+width)]W = np.diag(local_weight)coef = weighted_least_squares(local_y,local_x,M,W)if M==1:#局部线性回归y[i] = coef[1]*x[i] + coef[0]if M==2:#局部二阶多项式回归y[i] = coef[2]*x[i]*x[i] + coef[1]*x[i] + coef[0]        return y    if __name__ == '__main__':    plt.figurex = np.linspace(-8, 6, 200)y, y_noise = gen_data(x)plt.plot(x,y,'b')plt.plot(x,y_noise,'yx')y_rec = local_polynomial_kernel_regression(y_noise,x,1,20,0.8)#M=1线性plt.plot(x,y_rec,'r')y_rec = local_polynomial_kernel_regression(y_noise,x,2,20,0.8)#M=2二阶多项式plt.plot(x,y_rec,'k')plt.legend(labels=['original data','noise data','local linear','local polynomial'],loc='upper right')plt.title('local polynomial kernel regression')plt.show()

运行结果:
\qquad
\qquad 从上图中可以看出,与第1节核平滑方法中的“局部加权平均”的核回归方法相比,局部多项式回归在左右边界点处的拟合明显更好。

核平滑方法——局部多项式回归相关推荐

  1. 非参数统计中的核平滑方法/Kernel smoother

    Kernel Smoother   核函数Khλ(X0,X)K_{h_\lambda}(X_0,X)Khλ​​(X0​,X)定义为 Khλ(X0,X)=D(∣∣X−X0∣∣hλ(X0))K_{h_\l ...

  2. R语言中的多项式回归、局部回归、核平滑和平滑样条回归模型

    全文下载链接:http://tecdat.cn/?p=20531 当线性假设无法满足时,可以考虑使用其他方法(点击文末"阅读原文"获取完整代码数据). 相关视频 多项式回归 扩展可 ...

  3. 在R语言中进行局部多项式回归拟合(LOESS)

    局部多项式回归拟合是对两维散点图进行平滑的常用方法,它结合了传统线性回归的简洁性和非线性回归的灵活性.当要估计某个响应变量值时,先从其预测变量附近取一个数据子集,然后对该子集进行线性回归或二次回归,回 ...

  4. 非参数估计-高斯核平滑Gaussian kernel smoothing-非参数密度估计

    目录 1 非参数回归-核平滑 1.1 概念和计算 1.2 Nadaraya-Watson回归 1.3 高斯核 2 高斯核平滑过程-Python实现 2.1 加载库和生成数据 2.2 Full Widt ...

  5. MRI脑影像分析——多种工具实现Nifti(*.nii)文件读取、处理与写入——把小舞写进脑海里、6mm半高全宽高斯核平滑脑影像、NIFTI文件合并、算fMRI平均图像

    | 图源   Nifti(Neuroimaging Informatics Technology Initiative,神经影像信息学技术倡议)文件格式,是目前各大神经影像分析工具普遍兼容的体素水平的 ...

  6. element-ui和semantic-ui冲突的解决方法--局部引入semantic-ui的css

    element-ui和semantic-ui冲突的解决方法--局部引入semantic-ui的css 参考文章: (1)element-ui和semantic-ui冲突的解决方法--局部引入seman ...

  7. Jelinek-Merer与Absolute discounting 平滑方法

    Jelinek-Merer Jelinek-Merer平滑方法的基本思想是利用低元n-gram模型对高元n-gram模型进行线性插值. PML(wi∣wi−1)=c(wi,wi−1)c(wi−1)P_ ...

  8. python 数据平滑_数据平滑方法的原理和应用

    一.简介 在实际的工程应用中,经常会遇到初始结果噪声太多的问题,比如信号强度抖动的太厉害,比如视频流中的bbox抖动的太厉害,比如光谱信号抖动的太厉害等等,这时候就需要一些简单的滑动平均算法.滑动平均 ...

  9. ctr 平滑_CTR预估中的贝叶斯平滑方法及其代码实现

    我们假设事件的发生并不是相互独立的,相反,在层级结构中相对比较靠近的两个事件的相关性要大于距离较远的两个事件,它们之间拥有很多共通之处.于是,我们便可以利用"相似"事件的信息来丰富 ...

最新文章

  1. python爬虫案例讲解-Python爬虫案例集合
  2. HTML5 progress和meter控件
  3. The new NDK support in Android Studio 1.3
  4. C/Cpp / 虚函数是否可以用 inline 修饰
  5. webpack中跨域请求proxy代理(vue与react脚手架不同设置方法)
  6. java.lang.NoClassDefFoundError: org/springframework/context/ApplicationContextAware
  7. mysqldumper
  8. 玩转oracle 11g(11):开启归档模式
  9. pythonwebui自动化_python+selenium实现web端UI自动化测试
  10. 谋而后动:解读数仓计划生成中行数估算和路径生成的奥秘
  11. spring+mybatis 框架搭建
  12. 性能测试之JMeter配置元件【HTTP信息头管理器】
  13. 群之脉PHP面试,面试问Redis集群,被虐的不行了......
  14. 安装用友U8的常见错误
  15. EOJ 1864 二分图匹配
  16. 桌面计算机地址栏在哪,我的电脑地址栏不见了怎么办 地址栏不见了如何解决...
  17. eclipse中转换项目编码时没有GBK的问题
  18. 远程工作的五个层次 – 以及为什么您可能处于第2层
  19. 互联网寒冬,如何花三个月东山再起........
  20. 红米联通版刷机包 MIUIV6 扁平化 精简 稳定 流畅 省电 长用版

热门文章

  1. html css新闻网站,CSS网站最新资讯
  2. 未转变者服务器买车指令,未转变者服务器指令大全
  3. 厉挣宝------九个努力奋斗的理由
  4. 2020上半年勒索病毒报告:勒索手段升级,不交赎金就公开数据
  5. 离职原因可以说,但要注意三个原则
  6. 三十七. geotrellis使用 COG 基础介绍
  7. eip协议通信_基于EtherNet/IP实现欧姆龙NX系列PLC通信
  8. uvm中sequence和virtual sequence中objection的控制
  9. 李彦宏登上时代周刊封面 研究院完成调整【附时代周刊中文全文】
  10. 性能测试--稳定性测试