文章目录

    • Log
  • 一、学习大数据集(Learning with large datasets)
    • 1. 举例:易混淆单词分类
    • 2. 大数据集学习的计算问题
  • 二、随机梯度下降(Stochastic gradient descent)
    • 1. 批量梯度下降(Batch gradient descent)
    • 2. 随机梯度下降(Stochastic gradient descent)
      • ①回顾批量梯度下降算法
      • ②随机梯度下降过程
      • ③参数更新过程
  • 三、小批量梯度下降(Mini-batch gradient descent)
    • 1. 目前已有算法总结
    • 2. 完整小批量下降算法
      • ①算法内容
      • ②小批量梯度下降算法 vs. 批量梯度下降算法
      • ③小批量梯度下降算法 vs. 随机梯度下降算法
  • 四、随机梯度下降收敛(Stochastic gradient descent convergence)
    • 1. 检查收敛性(Checking for convergence)
    • 2. 绘制优化代价函数
    • 3. 学习速率的选择
  • 五、在线学习(Online learning)
    • 1. 实例一:运输服务应用 - 价格优化(Application in shipping service - Price optimization)
    • 2. 实例二:CRT 预测 - 点击率预测学习问题(Learning the predicted click-through rate)
    • 3. 其他例子
  • 六、映射归约与数据并行(Map-reduce and data parallelism)
    • 1. 采用 MapReduce 的批量梯度下降模型
    • 2. 形象化 MapReduce
    • 3. 在多台电脑上使用 MapReduce
    • 4. 在多核电脑上使用 MapReduce
  • 总结

Log

2022.08.06开始新的一章!
2022.08.07继续学习
2022.08.08继续学习
2022.08.09继续学习
2022.08.10继续学习
2022.08.11继续学习。结束这一章!


  • 本章我们将谈论大规模机器学习,就是处理大数据集的算法。如果我们回溯一下近 5 年或 10 年机器学习历史,当下的学习算法比 5 年前运行的更好,原因之一是现在我们有极其庞大数据量用来训练我们的算法。接下来的内容我们将讲述能够处理如此海量数据的算法。

一、学习大数据集(Learning with large datasets)

1. 举例:易混淆单词分类

  • 我们为什么要用这么大的数据集呢?我们已经知晓一种获取高性能的机器学习系统的途径是采用低偏差的学习算法,并用大数据进行训练。一个我们之前已经了解过的例子,这个对易混淆单词进行分类的例子,比如 For breakfast I ate two eggs,这个例子中,从下图的结果可以看出,只要我们用大量数据训练算法,它的效果看起来非常好。从类似的结果可以得出,在机器学习中,通常情况下决定因素往往不是最好的算法,而是谁的训练数据最多。如果我们想进行大数据集的学习,至少我们要能获得大数据集。

2. 大数据集学习的计算问题

  • 不过大数据集学习有其特有的问题,具体来说,是计算问题。假定我们的训练集的大小 mmm 为 100,000,000100,000,000100,000,000,对于许多现代数据集而言,这个数据量是很实际的,例如流行网站获取到的流量数据,我们得到的训练集会比数亿条数据还大得多。假设我们想训练一个线性回归模型或是一个逻辑回归模型,其梯度下降规则如下:
    θj:=θj−α1m∑i=1m(hθ(x(i))−y(i))xj(i)\begin{aligned} \theta_j:=\theta_j-\blue{\alpha\frac{1}{m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j} \end{aligned} θj​:=θj​−αm1​i=1∑m​(hθ​(x(i))−y(i))xj(i)​​

  • 同时,我们再看看需要计算梯度的项(蓝色标注)。当 mmm 的值为 100,000,000100,000,000100,000,000 时,我们需要对一亿项进行求和,这是为了计算导数项以及演算单步下降。因为计算超过一亿项的代价太大了,为了计算梯度下降中的一步,接下来的几节我们将会讲述某个能够替代这个算法的算法,或是寻找更有效的计算这个导数的方法。

  • 当你学完这一章,你就可以知道如何处理模型、线性回归、逻辑回归、神经网络等等,甚至是现在有一亿个样本的数据集。当然在我们把精力花在用一亿个样本训练模型之前,我们应该自问一下,为什么不只用一千个样本,也许我们可以随机选择一亿个样本中的一千个样本的子集,然后仅用这一千个样本来训练算法。所以在投入精力到实际开发软件前,需要训练大量的模型,预先检查往往是个明智的选择,如果用一千个例子的训练效果也是一样的话。

  • 使用一个非常小的训练集的完整性检查的方法结果可能也是一样的,即如果使用一个非常小的 mmm 的大小为 100010001000 的训练集,效果可能相同,它也是绘制学习曲线的常用方法。如果我们要绘制学习曲线,同时如果我们的训练目标看起来像蓝线这样,即 Jtrain(θ)J_{train}(θ)Jtrain​(θ) ,并且如果交叉验证集合目标 Jcv(θ)J_{cv}(θ)Jcv​(θ) 看起来像红线这样的话,那这看起来像一个高方差学习算法(上图左),我们更能确信增加额外的训练用例能够提升效果。相反如果绘制的学习曲线像这样的话(上图右),那么这看起来像是经典的高偏差学习算法。在后一种情况中,如果取最大值到 m=1000m=1000m=1000,那么观察 m=500m=500m=500 到 m=1000m=1000m=1000 的图像,我们可以发现增加 mmm 到一亿效果不太可能会更好,因此坚持将 mmm 取值为 100010001000 也是可以的,而不是投入了很大精力去弄清楚算法的训练集规模。

  • 当然,如果我们处于图右的情况,那么自然而然会添加额外的特征项或在神经网络中添加额外的隐藏单元等等,这样我们最终会得到类似图左的情况,它的 mmm 最大可能取到 100010001000,这也能令我们更确定应该尝试增加基础结构改变算法,使用多于一千的样本集,这样可能会充分利用我们的时间。

  • 在大规模的机器学习中,我们喜欢找出合理的计算方法或高效的计算方法,用来处理庞大的数据集。在接下来的几节内容中,我们将了解两个主要方法,第一个称为随机梯度下降(Stochastic gradient descent),第二个为映射化简(Map reduce),用来处理海量的数据集。希望在了解了这些方法之后,我们能够将大数据应用到我们的学习算法之中,同时在许多不同的应用中得到更好的效果。

二、随机梯度下降(Stochastic gradient descent)

  • 对于很多机器学习的算法,例如线性回归,逻辑回归和神经网络,我们推导算法的方法是提出一个代价函数,或是提出一个优化目标,然后使用梯度下降这样的算法求代价函数的最小值,但是当我们的训练集很大时,梯度下降算法的计算量会变得非常的大。
  • 在这一节中我们将讨论对普通梯度下降算法的改进,称之为随机梯度下降法(Stochastic gradient descent),这将使算法能应用于更大的训练集中。

1. 批量梯度下降(Batch gradient descent)

Linearregressionwithgradientdescenthθ(x)=∑j=0nθjxjJtrain(θ)=12m∑i=1m(hθ(x(i))−y(i))2\begin{aligned} &\textbf{Linear\ \ regression\ \ with\ \ gradient\ \ descent}\\ &h_\theta(x)=\sum^n_{j=0}\theta_jx_j\\ &J_{train}(\theta)=\frac{1}{2m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})^2 \end{aligned} ​Linear  regression  with  gradient  descenthθ​(x)=j=0∑n​θj​xj​Jtrain​(θ)=2m1​i=1∑m​(hθ​(x(i))−y(i))2​

  • 假设我们正在用梯度下降法来训练一个线性回归模型,快速回顾一下,假设函数是如上面 hθ(x)h_θ(x)hθ​(x) 这样的,而代价函数是 Jtrain(θ)J_{train}(θ)Jtrain​(θ) 对应的式子,它是我们的 mmm 个训练样本的假设函数的平方误差的平均值再乘以 12\frac{1}{2}21​,我们之前看到的代价函数都是这样的弓形函数(下图),因此,在图中画出参数 θ0θ_0θ0​、θ1θ_1θ1​ 对应的坐标轴和代价函数 JJJ,它看起来是一个弓形的函数。

  • 而梯度下降算法是这样的:
    Repeat{θj:=θj−α1m∑i=1m(hθ(x(i))−y(i))xj(i)(foreveryj=0,...,n)}\begin{aligned} &\textbf{Repeat\ \{ }\\ &\qquad\theta_j:=\theta_j-\alpha\blue{\frac{1}{m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j}\\ &\qquad(for\ \ every\ \ j=0,...\ ,n)\\ &\textbf{\}} \end{aligned} ​Repeat { θj​:=θj​−αm1​i=1∑m​(hθ​(x(i))−y(i))xj(i)​(for  every  j=0,... ,n)}​

  • 在梯度下降的内部循环中,我们要用上面的式子反复更新参数 θθθ 的值。接下来,我们将继续使用线性回归作为我们的例子,不过,这里的随机梯度下降的思想是一种很常见的思想,它也同时应用于其它算法,比如逻辑回归,神经网络或者其他基于梯度下降的对应特定训练集的算法。

  • 上图表示梯度下降的做法,假设上图中最外侧的红叉表示参数的初始位置,当我们运行梯度下降时,不断地迭代,将使参数达到全局最小值。因此,它将会以类似上图中红叉的运动轨迹来达到全局最小值。

  • 但是现在有一个问题是,当 mmm 值很大的时候,计算这个微分项时(上图蓝色标注),计算量会变得非常大,因为需要对 mmm 个样本进行求和,假设 mmm 的值为 333 亿,表示在美国大约 333 亿人口,因此,美国的人口普查数据就有这种量级的数据记录。如果我们想要用这些数据去拟合一个线性回归模型的话,那么我们就需要对这 333 亿的数据进行求和,计算量就太大了。

  • 这种梯度下降算法有另一个名字,叫做批量梯度下降(Batch gradient descent ),批量这个词指的是我们每次都要同时考虑所有的训练样本,我们称之为一批训练样本,可能这个名字不算最恰当的,但做机器学习的人都习惯这么称呼它。想象一下,如果我们真的有 333 亿人口普查的数据存在硬盘里,那么这种算法需要将这 333 亿人口的数据读入计算机中,仅仅为了计算出这个微分项,我们需要不断地将这些数据传入计算机中,但计算机的内存存不下这么多数据,所以我们得慢慢读取这些数据,然后进行一次求和,再算出这个微分,做完这些以后,我们才完成了梯度下降的其中一步,我们还得重头再来一遍,遍历这 333 亿个数据,然后计算和值,做完这些之后,我们依然只是完成了梯度下降的一小步,然后又要再来一遍,得到第三次迭代,一直这样下去。为了收敛计算结果,我们需要花费很长的时间。

  • 对比这种批量梯度下降,我们要介绍的一种新算法就完全不同了,这种方法在每次迭代中不需要考虑全部的训练样本,仅仅只需要考虑一个训练样本。

2. 随机梯度下降(Stochastic gradient descent)

①回顾批量梯度下降算法

  • 在介绍新算法之前,我们把批量梯度下降算法再次写出来:
    BatchgradientdescentJtrain(θ)=12m∑i=1m(hθ(x(i))−y(i))2Repeat{θj:=θj−α1m∑i=1m(hθ(x(i))−y(i))xj(i)(foreveryj=0,...,n)}\begin{aligned} &\textbf{Batch\ \ gradient\ \ descent}\\ &J_{train}(\theta)=\frac{1}{2m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})^2\\ &Repeat\ \{ \\ &\qquad\theta_j:=\theta_j-\alpha\pink{\frac{1}{m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j}\\ &\qquad(for\ \ every\ \ j=0,...\ ,n)\\ &{\}} \end{aligned} ​Batch  gradient  descentJtrain​(θ)=2m1​i=1∑m​(hθ​(x(i))−y(i))2Repeat {θj​:=θj​−αm1​i=1∑m​(hθ​(x(i))−y(i))xj(i)​(for  every  j=0,... ,n)}​
  • Jtrain(θ)J_{train}(θ)Jtrain​(θ) 开头的式子是代价函数,θj\theta_jθj​ 开头的式子是迭代更新过程,粉色那一项在梯度下降的规则中是优化目标代价函数 Jtrain(θ)J_{train}(θ)Jtrain​(θ) 关于参数 θj\theta_jθj​ 的偏微分 ∂∂θjJtrain(θ)\frac{\partial}{\partial\theta_j}J_{train}(\theta)∂θj​∂​Jtrain​(θ)。

②随机梯度下降过程

  • 下面让我们来看看更高效的算法:
    Stochasticgradientdescentcost(θ,(x(i),y(i)))=12(hθ(x(i))−y(i))2Jtrain(θ)=1m∑i=1mcost(θ,(x(i),y(i)))\begin{aligned} &\textbf{Stochastic\ \ gradient\ \ descent}\\ &cost(\theta,(x^{(i)},y^{(i)}))=\frac{1}{2}(h_\theta(x^{(i)})-y^{(i)})^2\\ &J_{train}(\theta)=\frac{1}{m}\sum^m_{i=1}cost(\theta,(x^{(i)},y^{(i)}))\\ \end{aligned} ​Stochastic  gradient  descentcost(θ,(x(i),y(i)))=21​(hθ​(x(i))−y(i))2Jtrain​(θ)=m1​i=1∑m​cost(θ,(x(i),y(i)))​
  • 它可以更好地处理大型数据集,为了更好的描述随机梯度下降算法,我们用另一种形式把代价函数写出来,我们将代价函数定义为 cost(θ,(x(i),y(i)))cost(\theta,(x^{(i)},y^{(i)}))cost(θ,(x(i),y(i))),它等于 12\frac{1}{2}21​ 倍假设函数 hθ(x(i))h_\theta(x^{(i)})hθ​(x(i)) 与 y(i)y^{(i)}y(i) 的平方误差,因此这个代价函数实际上衡量的是我们的假设函数在某个样本 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)) 上的表现,你可能已经发现,总体代价函数 JtrainJ_{train}Jtrain​ 可以被写成上面二式这样的等效的形式,所以 JtrainJ_{train}Jtrain​ 就等于假设函数在 mmm 个训练样本中每一个样本 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)) 上的代价函数的平均值。
  • 将这种方法应用到线性回归中,我们来写出随机梯度下降的过程:

1.Randomlyshuffle(reorder)trainingexamples2.Repeat{fori:=1,...,m{θj:=θj−α(hθ(x(i))−y(i))xj(i)(foreveryj=0,...,n)}}\begin{aligned} &1.\ Randomly\ \ shuffle\ \ (reorder)\ \ training\ \ examples\\ &2.\ Repeat\ \{ \\ &\ \ \ \qquad for\ \ i:=1,...\ ,m\ \{\\ &\ \ \ \qquad\qquad\theta_j:=\theta_j-\alpha\pink{(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j}\\ &\ \ \ \qquad\qquad(for\ \ every\ \ j=0,...\ ,n)\\ &\ \ \ \qquad\}\\ &\ \ \ {\}} \end{aligned} ​1. Randomly  shuffle  (reorder)  training  examples2. Repeat {   for  i:=1,... ,m {   θj​:=θj​−α(hθ​(x(i))−y(i))xj(i)​   (for  every  j=0,... ,n)   }   }​

  • 第一步,随机打乱所以数据,随机打乱的意思是将所有 mmm 个训练样本重新随机排列,这是标准的数据预处理过程;
  • 第二步,在 i=1,...,mi=1,...\ ,mi=1,... ,m 中进行循环,也就是对所有的训练样本进行遍历,然后进行更新参数 θj\theta_jθj​,然后我们对所有 jjj 的值进行更新,不难发现,上面粉色标注的部分的那一项实际上就是批量梯度下降算法中求和式里面的那一部分,事实上,用微积分的知识可以证明这一项等于 costcostcost 函数关于参数 θj\theta_jθj​ 的偏微分 ∂∂θjcost(θ,(x(i),y(i)))\frac{\partial}{\partial\theta_j}cost(\theta,(x^{(i)},y^{(i)}))∂θj​∂​cost(θ,(x(i),y(i))) ,costcostcost 函数就是之前定义的代价函数。
  • 所以,随机梯度下降实际上就是遍历所有的训练样本,首先是我们的第一组训练样本 (x(1),y(1))(x^{(1)},y^{(1)})(x(1),y(1)) ,现在我们只看第一个样本,此时我们只对第一个训练样本的代价函数进行梯度下降操作,换句话说,我们只关注第一个训练样本,然后把参数稍微修改一下,使其对第一个训练样本拟合得更好一点,完成这个内循环后,然后继续进行第二个训练样本,这里我们做的就是在参数空间中进行另外一小步,也是将参数稍微修改一下,使它对第二个样本拟合得更好一点。做完这些后,再继续进行第三个训练样本,同样还是将参数稍微修改一下,使它对第三个样本拟合得更好一点,以此类推,直到完成所有的训练集。
  • 这种重复循环会遍历整个训练集,从这个角度分析随机梯度下降,我们能更好的理解为什么一开始要随机打乱数据,这保证了我们在遍历训练集时,对训练样本的访问是以随机顺序排列的,不管数据是否已经随机排列过,或是一开始就按某种奇怪的顺序排列的,实际上这一步能让随机梯度下降在收敛时能够更快一点,为了保险起见,通常情况下最好还是先把所有数据随机打乱一下,因为我们可能不知道数据是否已经随机排列过。但对于随机梯度下降的更重要的一点是,与批量梯度下降不同,随机梯度下降不需要对全部 mmm 个样本求和来得到梯度项,而是只需要对单个训练样本求出这个梯度项(粉色标注),在这个过程中,我们已经开始优化参数了,所以就不需要把那 333 亿美国人口普查的数据都遍历一遍了。也就是说,不需要对所有的数据进行扫描,就能对参数进行修改,使其达到全局最小值。对随机梯度下降来说,我们每次只需要关注一个训练样本,而在这个过程中,我们已经开始一点一点把参数朝着全局最小值的方向进行修改了。

③参数更新过程

  • 下面我们来看看算法是如何更新参数的,之前已经看到,当使用批量梯度下降时,需要考虑所有的训练样本数据批量梯度下降的收敛过程,会取一条合理的直线来到达全局最小值(下图1)。与之不同的是,在随机梯度下降中,每一次迭代都会更快,因为不需要对所有训练样本进行求和,每一次迭代只需要保证能拟合某一个训练样本就行了。如果我们进行随机梯度下降,假设从这个点(下图2粉叉)开始进行随机梯度下降:

  • 第一次迭代可能会让参数朝着这个方向移动(上图3),然后第二次迭代,只考虑第二个训练样本,假如偶然情况下,我们很不幸让参数走了一个错误的方向(上图4),但是在第三次迭代中,又会修改参数,使其更好的拟合第三组训练样本,可能最终会得到这个方向(上图5),然后第四组样本,然后第五第六第七等等。

  • 在运行随机梯度下降的过程中我们会发现,总的来看,我们的参数是朝着全局最小值的方向移动的,虽然偶尔也有例外,不过整个过程还是以随机而迂回的路径朝着全局最小值前进(上图6)。实际上,当我们运行随机梯度下降时,和批量梯度下降相比,收敛的形式是不同的。随机梯度下降所做的就是连续不断地在某个区域中朝着全局最小值的方向徘徊,而不是直接达到全局最小值。在实际中其实完全可行,只要参数最终能移动到靠近全局最小值的区域内,所以只要参数最后能够非常接近全局最小值,我们就能得到一个很好的假设。因此,通常我们用随机梯度下降法,能得到一个很接近全局最小值的参数,对于实际应用的目的来说已经足够了。

  • 最后一点细节,在随机梯度下降法中,有一个外层循环,它决定了内层循环的执行次数。所以外层循环应该执行多少次呢?这取决于训练集的大小,通常一次就够了,最多到 101010 次,但那是特殊情况,所以,最终内层循环次数在 111 到 101010 次之间。如果我们有一个非常大的数据集,比如美国人口普查的数据,也就是我们讨论的那3亿个样本,很可能,当我们仅遍历一次训练集时,外层的 iii 就是从 111 亿到 333 亿了,很可能我们只遍历一次训练集就能得到一个非常好的假设,因为这是 mmm 非常大,所以内层循环只用做一次就够了。但通常来说,循环 111 到 101010 次,都是非常合理的,但这还是取决于我们的训练样本的大小

  • 如果我们用它与批量下降算法相比的话,批量梯度下降仅仅在其中一步梯度下降的过程中,就需要考虑全部的训练样本,并且这只是梯度下降的一个小小的步骤,但它却需要遍历整个数据集,同时也说明了为什么随机梯度下降算法要快得多

  • 这就是随机梯度下降算法,如果我们能够亲自实现它,我们将能够将这种思想应用到很多学习算法中,来适应更大的数据集,从而提高算法的性能。

三、小批量梯度下降(Mini-batch gradient descent)

  • 上一节我们讨论了随机梯度下降算法,以及它比批量梯度下降算法更快的原因。本节我们会讲述另一种方法,称为小批量梯度下降(Mini-batch gradient descent),它有时甚至比随机梯度下降还要快一点。

1. 目前已有算法总结

  • 总结一下迄今为止讲过的算法:
    Batchgradientdescent:UseallmexamplesineachiterationStochasticgradientdescent:Use1exampleineachiterationMini–batchgradientdescent:Usebexamplesineachiteration\begin{aligned} &\textbf{Batch\ \ gradient\ \ descent:}\ \ {\rm Use\ \ all}\ \ \red m\ \ \rm examples\ \ in\ \ each\ \ iteration\ \ \\ &\textbf{Stochastic\ \ gradient\ \ descent:}\ \ {\rm Use}\ \ \red 1\ \ \rm example\ \ in\ \ each\ \ iteration\ \ \\ &\textbf{Mini\text{\textendash}batch\ \ gradient\ \ descent:}\ \ {\rm Use}\ \ \red b\ \ \rm examples\ \ in\ \ each\ \ iteration\ \ \\ \end{aligned} ​Batch  gradient  descent:  Use  all  m  examples  in  each  iteration  Stochastic  gradient  descent:  Use  1  example  in  each  iteration  Mini–batch  gradient  descent:  Use  b  examples  in  each  iteration  ​

  • 批量梯度下降算法中,每次迭代我们都要用到所有的 mmm 个样本,而在随机梯度下降算法中,每次迭代只需要使用一个样本。Mini–Batch\rm Mini\text{\textendash}BatchMini–Batch 梯度下降算法则是介于两者之间。具体来说,这个算法每次迭代会使用 bbb 个样本(这里 bbb 是一个称为 Mini–Batch\rm Mini\text{\textendash}BatchMini–Batch 大小的参数),所以,它是介于批量梯度下降算法和随机梯度下降算法之间的算法。这与批量梯度下降算法有些相似,只不过我们会用一个小得多的批量大小。通常会选择 bbb 的值为 b=10b=10b=10,同时 bbb 取值范围为 b=2b=2b=2 到 b=100b=100b=100,对于 Mini–Batch\rm Mini\text{\textendash}BatchMini–Batch 大小的选取而言,这是一个常用的取值范围,它的思想是既不一次只用一个样本,也不一次用 mmm 个样本,而是一次用 bbb 个样本。
    Getb=10examples(x(i),y(i)),...,(x(i+9),y(i+9))θj:=θj−α110∑k=1i+9(hθ(x(k))−y(k))xj(k)\begin{aligned} &Get\ \ \blue{b=10}\ \ examples\ \ (x^{(i)},y^{(i)}),...\ ,(x^{(i+9)},y^{(i+9)})\\ &\qquad \theta_j:=\theta_j-\alpha\frac{1}{\red{10}}\sum^{\blue{i+9}}_{k=1}(h_\theta(x^{(k)})-y^{(k)})x_j^{(k)} \end{aligned} ​Get  b=10  examples  (x(i),y(i)),... ,(x(i+9),y(i+9))θj​:=θj​−α101​k=1∑i+9​(hθ​(x(k))−y(k))xj(k)​​

  • 我们会得到,比如 bbb,这个例子中假设 b=10b=10b=10,我们将得到训练集中的 101010 个样本,可能是某个 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)) 到 (x(i+9),y(i+9))(x^{(i+9)},y^{(i+9)})(x(i+9),y(i+9)),所以这一共是 101010 个样本,然后我们用这 101010 个样本来执行梯度下降算法,以完成更新,即线性速率乘以 110\frac{1}{10}101​,再乘以一个求和项为当 k=ik=ik=i 到 k=i+9k=i+9k=i+9 时 hθ(x(k))h_\theta(x^{(k)})hθ​(x(k)) 减 y(k)y^{(k)}y(k) 之差的和,再乘以 xj(k)x_j^{(k)}xj(k)​。

  • 在上面的式子中,是对 101010 个样本进行梯度求和的,分母上的 101010 就是 Mini–Batch\rm Mini\text{\textendash}BatchMini–Batch 大小的值(红色标注),并且 i+9i+9i+9 中,999 取自对参数 bbb 的选择(蓝色标注),运算完后,我们将增大 iii 的值为 101010 ,然后在使用后 101010 个样本,并像之前那样继续进行下去。

2. 完整小批量下降算法

①算法内容

  • 写一下完整的算法:
    Mini-BatchgradientdescentSayb=10,m=1000.Repeat{fori:=1,11,21,31,...,991{θj:=θj−α110∑k=1i+9(hθ(x(k))−y(k))xj(k)(foreveryj=0,...,n)}}\begin{aligned} &\textbf{Mini-Batch\ \ gradient\ \ descent}\\ &Say\ \ \blue{b=10},\green{m=1000}.\\ &Repeat\ \{ \\ &\qquad for\ \ i:=1,11,21,31,...\ ,991\{\\ &\qquad\qquad\theta_j:=\theta_j-\alpha\orange{\frac{1}{\red{10}}\sum^{\red{i+9}}_{k=1}(h_\theta(x^{(k)})-y^{(k)})x_j^{(k)}}\\ &\qquad\qquad(for\ \ every\ \ j=0,...\ ,n)\\ &\qquad\}\\ &{\}} \end{aligned} ​Mini-Batch  gradient  descentSay  b=10,m=1000.Repeat {for  i:=1,11,21,31,... ,991{θj​:=θj​−α101​k=1∑i+9​(hθ​(x(k))−y(k))xj(k)​(for  every  j=0,... ,n)}}​

  • 为了简化下标,我们假设 Mini–Batch\rm Mini\text{\textendash}BatchMini–Batch 大小为 101010(蓝色标注),训练样本大小为 100010001000(绿色标注),然后使用 RepeatRepeatRepeat 下括号里的内容进行循环,当 i=1,11,21,...i=1,11,21,...i=1,11,21,... 进行循环,同时步长为 101010 ,因为我们每次使用 101010 个样本,然后执行梯度下降算法,一次用 101010 个样本进行更新,那么这个 101010 和 i+9i+9i+9 (红色标注)都表明 Mini–Batch\rm Mini\text{\textendash}BatchMini–Batch 大小选定为 101010(蓝色标注),并且这个 forforfor 循环会在 i=991i=991i=991 时结束,因为如果我们有 100010001000 个训练样本,需要循环 100100100 次,每次 101010 步,才能遍历我们的整个训练集。

②小批量梯度下降算法 vs. 批量梯度下降算法

  • 这就是 Mini–batch\rm Mini\text{\textendash}batchMini–batch 梯度下降算法,与批量梯度下降相比,它的运行过程会更快。再举一次这个例子,有 333 亿条美国人口普查数据的训练样本,接着在仅遍历前 101010 个样本后,我们就可以更新参数 θθθ 的值了,我们不需要遍历整个训练样本集,我们仅需要前 101010 个样本,就可以运行算法,然后用后 101010 个样本来更新参数,以此类推。
  • 这就是 Mini–batch\rm Mini\text{\textendash}batchMini–batch 梯度下降算法比批量梯度下降算法要快的原因,即仅用前 101010 个样本就可以运行算法,更新参数,而不需要等我们遍历完所有的 333 亿个样本后才能执行算法更新参数。

③小批量梯度下降算法 vs. 随机梯度下降算法

  • 那么 Mini–batch\rm Mini\text{\textendash}batchMini–batch 梯度下降算法与随机梯度下降算法相比如何呢?为什么我们每次使用 bbb 个样本,而不像随机梯度下降算法一样每次只使用一个样本呢?答案是,在向量化(Vectorization) 过程中,特别地, Mini–batch\rm Mini\text{\textendash}batchMini–batch 梯度下降算法可能会比随机梯度下降算法更好,仅当我们有一个好的向量化方式,那样的话,这个求和项(①中橙色标注)涵盖了 101010 个样本的总和能以更向量化的方式执行,这将使得我们在 101010 个样本中实现部分并行计算,换句话说,通过使用合适的向量化方式,计算余下的样本,有时我们可以部分使用好的数值代数库,然后对 bbb 个样本并行进行梯度计算,不过如果像随机梯度下降算法一样,每次仅遍历一个样本,不会有太多的并行计算(至少有很少的并行计算)。
  • Mini–batch\rm Mini\text{\textendash}batchMini–batch 梯度下降算法的缺点之一是,当我们有一个额外的参数 bbb 时,需要确定 Mini–batch\rm Mini\text{\textendash}batchMini–batch 大小,这可能需要费些时间,不过,如果我们有优秀的向量化方法,有时它将比随机梯度下降运行的更快。
  • 这就是 Mini–batch\rm Mini\text{\textendash}batchMini–batch 梯度下降算法,某种意义上,它是一个介于随机梯度下降算法和批量梯度下降算法之间的算法。同时,如果我们选择了合适的参数 bbb ,我们通常使 b=10b=10b=10 ,但是其他值,比如 222 到 100100100 范围内的都将是合理的选择,所以,当我们选用好的 bbb 值,同时如果使用一个优秀的向量化方法,那么有时它会比随机梯度下降算法和批量梯度下降算法都要快。

四、随机梯度下降收敛(Stochastic gradient descent convergence)

  • 现在你已经知道了随机梯度下降算法,但当你在运行算法时,你如何确保调试过程已经完成,并且已经收敛到合适的位置呢?还有一件重要的事,你怎样调整随机梯度下降中学习速率 ααα 的值呢?本节我们会谈到一些方法来处理这些问题,确保算法能正确收敛,以及选择合适的学习速率 ααα。

1. 检查收敛性(Checking for convergence)

  • 回顾之前的批量梯度下降算法:
    CheckingforconvergenceBatchgradientdescent:PlotJtrain(θ)asafunctionofthenumberofiterationsofgradientdescent.Jtrain(θ)=12m∑i=1m(hθ(x(i))−y(i))2Stochasticgradientdescent:cost(θ,(x(i),y(i)))=12(hθ(x(i))−y(i))2Duringlearning,computecost(θ,(x(i),y(i)))beforeupdatingθusing(x(i),y(i)).Every1000iterations(say),plotcost(θ,(x(i),y(i)))averagedoverthelast1000examplesprocessedbyalgorithm.\begin{aligned} &\textbf{Checking\ \ for\ \ convergence}\\ &\rm Batch\ \ gradient\ \ descent:\\ &\qquad Plot\ \ J_{train}(\theta)\ \ as\ \ a\ \ function\ \ of\ \ the\ \ number\ \ of\ \ iterations\ \ of\\ &\qquad gradient\ \ descent.\\ &\qquad \blue{J_{train}(\theta)=\frac{1}{2m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})^2}\\ &\rm Stochastic\ \ gradient\ \ descent:\\ &\qquad \green{cost(\theta,(x^{(i)},y^{(i)}))=\frac{1}{2}(h_\theta(x^{(i)})-y^{(i)})^2}\\ &\qquad During\ \ learning,\ \ compute\ \ cost(\theta,(x^{(i)},y^{(i)})) \ \ before\ \ updating\ \ \theta\\ &\qquad using\ \ (x^{(i)},y^{(i)}).\\ &\qquad Every\ \ 1000\ \ iterations\ \ (say),\ \ plot \ \ cost(\theta,(x^{(i)},y^{(i)})) \ \ averaged\\ &\qquad over\ \ the\ \ last\ \ 1000\ \ examples\ \ processed\ \ by\ \ algorithm.\\ \end{aligned} ​Checking  for  convergenceBatch  gradient  descent:Plot  Jtrain​(θ)  as  a  function  of  the  number  of  iterations  ofgradient  descent.Jtrain​(θ)=2m1​i=1∑m​(hθ​(x(i))−y(i))2Stochastic  gradient  descent:cost(θ,(x(i),y(i)))=21​(hθ​(x(i))−y(i))2During  learning,  compute  cost(θ,(x(i),y(i)))  before  updating  θusing  (x(i),y(i)).Every  1000  iterations  (say),  plot  cost(θ,(x(i),y(i)))  averagedover  the  last  1000  examples  processed  by  algorithm.​
  • 回顾之前的批量梯度下降算法,确保梯度下降已经收敛的一个标准方法,就是绘制优化代价函数,这是一个关于迭代次数的函数,这个就是代价函数(蓝色标注),我们要确保这个代价函数在每一次迭代中都是下降的。当训练集比较小的时候,这很容易,因为可以迅速算出和值 ∑i=1m(hθ(x(i))−y(i))2\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})^2∑i=1m​(hθ​(x(i))−y(i))2,但当训练集非常大的时候,我们不会希望总是暂停我们的的算法,我们不希望我们得定期地暂停随机梯度下降算法来计算这个式子,因为要求出这个式子就得遍历整个训练集。而随机梯度下降算法是每次只考虑一个单独的样本,每次都能让算法前进一点儿,而不需要时不时地在算法运行过程中扫描一遍整个训练集来计算出整个训练集的代价函数。
  • 因此,对于随机梯度下降算法,为了检查算法是否收敛,我们可以进行下面的工作,让我们沿用之前定义的 costcostcost 函数(绿色标注)。当随机梯度下降法进行学习时,在我们对某一个样本进行训练前,在随机梯度下降中,我们要关注某样本 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)),然后对这个样本做一次小小的更新,然后再到下一个样本 (x(i+1),y(i+1))(x^{(i+1)},y^{(i+1)})(x(i+1),y(i+1)) ,以此类推,这就是随机梯度下降的做法。所以,当这个算法刚好扫描到样本 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)) ,但在更新参数 θθθ 之前,使用这个样本我们可以算出这个样本对应的 costcostcost 函数。
  • 我们换一种表达方式再说一遍,当随机梯度下降法对训练集进行扫描时,在我们使用某个样本 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)) 来更新 θθθ 之前,让我们来计算出这个训练样本假设的表现有多好,我们要在更新 θθθ 前来完成这一步,因为如果我们用这个样本更新了 θθθ 的话,再让它在该训练样本上进行预测,其表现就比当前样本更好了。
  • 最后,为了检查随机梯度下降是否收敛,我们要做的是,每 100010001000 次迭代,我们就画出前一步中所计算出的 costcostcost 函数,我们把这些前 100010001000 个样本的 costcostcost 函数的平均值画出来,如果这样的话,它会有效地帮助估计出我们的算法在前 100010001000 个样本上表现有多好,所以,比起之前需要时不时地计算 JtrainJ_{train}Jtrain​,那样就得遍历所有的训练样本,而随机梯度下降法的这个步骤只用在更新 θθθ 之前计算这些 costcostcost 函数,并不需要太大的计算量。我们要做的就是每 100010001000 次迭代运算中,求出前 100010001000 个 costcostcost 函数的平均值,然后把它画出来,通过观察所画的图,我们就能检查出随机梯度下降是否在收敛。

2. 绘制优化代价函数

  • 这是几幅所画的图的例子:

  • 假设我们已经画出了前 100010001000 组样本的 costcostcost 函数平均值,由于它们只是 100010001000 组样本的平均值,因此看起来会有很多噪声,它可能不是每一步迭代都在下降。假如我们得到这样的图像(上图 1 蓝线),这个图有很多噪声,因为它只是对一小部分样本求平均值,在该例中,是 100010001000 个样本。如果我们得到像这样的图像,那么这是一个很不错的下降过程,可以看出代价函数的值在下降,然后从这个点开始(上图 1 绿色标注),图像开始变得平缓。通过这副图像,可以得知,学习算法已经收敛了

  • 如果我们尝试用一个更小的学习速率,那么我们可能会看到算法的学习变得更慢了,所以代价函数下降也变缓了。但是由于使用了更小的学习速率,最后可能会让算法收敛到一个更好的结果,这条红色的曲线(上图 1)就代表用更小学习速率来进行随机梯度下降。这种情况是因为随机梯度下降算法不是直接收敛到全局最小值,而是在一个范围内反复震荡,最后逐渐接近全局最小值。如果用一个更小的学习速率,最后这种振荡就会更小,不过两种曲线的这点差别有时是可以忽略的,但也有时候用更小的学习速率可以得到更好的参数的值
    Plotcost(θ,(x(i),y(i))),averagedoverthelast1000(5000)examples.\begin{aligned} &Plot \ \ cost(\theta,(x^{(i)},y^{(i)})) \ ,\ averaged\ \ over\ \ the\ \ last\ \ \purple{1000}\ (\red{5000})\ \ examples.\\ \end{aligned} ​Plot  cost(θ,(x(i),y(i))) , averaged  over  the  last  1000 (5000)  examples.​

  • 接下来再看几种其它情况,假如我们运行随机梯度下降,对 100010001000 组样本取 costcostcost 函数平均值,并且画出图像,那么这可能是另一种可能出现的情况(上图 2 蓝线),看起来算法大概已经收敛了。如果我们把这 100010001000 组样本(上式紫色标注)提高到要去计算 500050005000 组样本的均值(上式红色标注),那么我们可能会得到一条更平滑的曲线,像这样(上图 2 红线)。求出均值以后,我们会发现 500050005000 组样本比起 100010001000 组样本得到的曲线更为平滑,这就是如果我们增大训练样本的数量所得到的情形。当然它的缺点就是,每隔 500050005000 个样本,我们才能得到一个数据点,因此,我们所得到的关于算法表现有多好的反馈,就显得有一些延迟,因为图中每一个数据点都是从 500050005000 个样本中得到的,而不是之前的 100010001000 个样本。

  • 同样地,有时候我们运行梯度下降可能也会得到这样的图像(上图 3),如果出现这种情况,看起来我们的代价函数完全没有在减小,看起来算法没有进行学习,因为曲线整体看起来是平的,代价函数的值好像没有下降。但如果我们增加这里的数量(上式红色),来对更多的样本进行求均值,那么很可能会观察到红线所示的情况(上图 3),我们能看出,实际上代价函数是在下降的,只不过蓝线求均值的样本太少了,所以包含了太多的噪声,导致看不出函数实际上是趋向于减少的(上图 3 绿框中蓝线范围)。所以如果用 500050005000 个样本求均值,会比用 100010001000 个样本更好。当然,如果我们用更多的样本来求均值,可能我们会得到一条这样的学习曲线(上图 3 粉线),即使我们使用了更大数量的样本,曲线还是很平坦。如果得到这样的结果,很明显也很不幸,那就代表算法不知道出于何种原因没有进行学习,那么这时就需要调整学习速率或调整特征或者调整算法的其他东西。

  • 最后,我们可能会遇到一条这样的曲线(上图 4),我们会发现曲线是这样的(上图 4 蓝线)它看起来是在上升的,这种情况就是算法发散的信号,这时要做的就是用一个更小的学习速率 ααα 。

  • 通过上面的内容我们可以明白,当我们画出某个范围内样本的 costcostcost 函数均值时,各种可能出现的情况,同时也说明了,我们在遇到这些情况时应该采取怎样的措施:如果曲线的噪声太大,或者老是上下振动,我们就可以试着增加求均值样本的数量,这样就能更好地看出函数变化的趋势,如果我们发现误差在上升,或者 costcostcost 函数的值在上升,那么就用一个更小的 ααα 值

3. 学习速率的选择

  • 最后还需要说明一下关于学习速率的问题。我们已经知道,当运行随机梯度下降时,算法会从某个点开始,然后曲折地达到最小值,但它不会完全收敛,而是在最小值附近一直徘徊,因此我们最终得到的参数只是一个全局最小值的接近值,而不是真正的全局最小值。在大多数随机梯度下降法的典型应用中,学习速率 ααα 一般是一个不变的常数,因此,我们最终会得到这样的结果(参考本文第二节第 2 小节第 ③ 部分图 6)。如果我们想让随机梯度下降更好地收敛到全局最小值,我们可以做的就是让学习速率 ααα 的值随时间变化逐渐减小。所以,一种典型的方法就是设置 ααα 的值,让 ααα 等于某个常数 111 除以迭代次数加某个常数 222 (下式)。
    Learningrateαistypicallyheldconstant.Canslowlydecreaseαovertimeifwewantθtoconverge.(E.g.α=const1iterationNumber+const2)\begin{aligned} &\rm Learning\ \ rate\ \ \alpha \ \ is\ \ typically\ \ held\ \ constant.\ \ Can\ \ slowly\ \ decrease\ \ \alpha\\ &\rm over\ \ time\ \ if\ \ we\ \ want\ \ \theta\ \ to\ \ converge.\ \ \left(E.g.\ \ \blue{\alpha=\frac{const1}{iterationNumber+const2}}\right)\\ \end{aligned} ​Learning  rate  α  is  typically  held  constant.  Can  slowly  decrease  αover  time  if  we  want  θ  to  converge.  (E.g.  α=iterationNumber+const2const1​)​
  • 迭代次数指的是我们运行随机梯度下降的迭代次数,其实就是我们已经计算过的训练样本的数量。而常数 111 和常数 222 是算法的两个额外的参数,我们同样需要选择合适的值,才能得到较好的表现,但很多人不愿意用这个方法,原因是我们最后得花时间来确定这两个额外的参数(即常数 111 和常数 222),这会让整个算法变得更复杂,也就是说我们需要调整更多的参数,来让算法运行得更好。但如果我们能很好地调整这些参数,最后得出图像,算法还是会在最小值附近振荡,但它会更加接近最小值,因为这时我们减小了学习速率,那么这个振荡也会越来越小,直到收敛到非常靠近全局最小的地方。
  • 上式蓝色标注的那个公式的作用是,随着算法的运行,迭代次数会越来越大,因此学习速率 ααα 会慢慢变小,每一步就会越来越精确,直到最终收敛到全局最小值的地方。所以如果我们慢慢减小 ααα 的值一直到 000,最后得到一个非常好的假设,但是由于确定这两个常数需要额外的工作,并且通常情况下得到的参数值,它接近全局最小值的程度已经足够好,已经足够使我们满意了,因此,我们很少采用这种逐渐减小 ααα 的值的方法,而是让学习速率 ααα 保持一个常数。通常更多的时候,是让 ααα 为一个常数,不过两种做法都有人在用。
  • 总结一下,本节我们介绍了一种方法来近似地检验随机梯度下降算法在优化代价函数中的表现。这种方法并不需要定期地扫描整个训练集来计算出整个训练集的代价函数,而是只关注像前 100010001000 个的这些样本,我们可以用这个方法来确保随机梯度下降法运行正确并且在收敛,或者用它来调整学习速率 ααα 。

五、在线学习(Online learning)

  • 本节我们将会讨论一种新的大规模的机器学习机制,叫做在线学习机制(Online learning setting)。在线学习机制可以模型化一些问题,就是我们有连续一波数据或者连续的数据流,想要用算法从中学习的这类问题。今天许多大型网站或者许多大型网络公司使用不同版本的在线学习机制算法,从大批涌入网站的用户身上进行学习,特别是,如果我们有一个由不断进入网站的用户流所产生的连续的数据流,我们就可以使用在线学习机制,从数据流中学习用户的偏好,然后使用这些信息来优化关于网站的决策。

1. 实例一:运输服务应用 - 价格优化(Application in shipping service - Price optimization)

Shippingservicewebsitewhereusercomes,specifiesoriginanddestination,youoffertoshiptheirpackageforsomeaskingprice,anduserssometimeschoosetouseyourshippingservice(y=1),sometimesnot(y=0).\begin{aligned} &\rm Shipping\ \ service\ \ website\ \ where\ \ user\ \ comes,\ \ specifies\ \ origin\ \ and\\ &\rm destination,\ \ you\ \ offer\ \ to\ \ ship\ \ their\ \ package\ \ for\ \ some\ \ asking\ \ price,\\ &{\rm and\ \ users\ \ sometimes\ \ choose\ \ to\ \ use\ \ your\ \ shipping\ \ service}\ \ (y=1),\\ &{\rm sometimes\ \ not}\ \ (y=0).\\ \end{aligned} ​Shipping  service  website  where  user  comes,  specifies  origin  anddestination,  you  offer  to  ship  their  package  for  some  asking  price,and  users  sometimes  choose  to  use  your  shipping  service  (y=1),sometimes  not  (y=0).​

  • 假设我们提供运输服务,用户们来向我们询问把包裹从 AAA 地运到 BBB 地的服务,同时假定我们有一个网站,用户们登陆网站告诉我们他们想从哪里寄出包裹,以及寄到哪里去(也就是出发地与目的地),然后我们的网站开出运输包裹的服务价格,然后根据我们开给用户的这个价格,用户有时会接受这个运输服务,那么这就是个正样本,有时他们会走掉,不购买我们的运输服务。
  • 我们假定我们想要一个学习算法来帮助我们优化我们想给用户开出的价格。具体来说,假设我们获取了描述用户特点的特征,例如用户的人口统计学数据,用户邮寄包裹的起始地以及目的地,以及我们提供给他们的运送包裹的价格。
    Featuresxcapturepropertiesofuser,oforigin/destinationandaskingprice.Wewanttolearnp(y=1∣x;θ)tooptimizeprice.\begin{aligned} &{\rm Features}\ \ x \ \ \rm capture\ \ properties\ \ of\ \ user,\ \ of\ \ origin/destination\ \ and\\ &{\rm asking\ \ price.\ \ We\ \ want\ \ to\ \ learn}\ \ p(y=1|\blue{x};\theta) \ \ \rm to\ \ optimize\ \ price. \end{aligned} ​Features  x  capture  properties  of  user,  of  origin/destination  andasking  price.  We  want  to  learn  p(y=1∣x;θ)  to  optimize  price.​
  • 我们想要做的就是用这些特征学习,他们将会选择我们的服务来运输包裹的几率,并且再次指出,这些特征中包含了开出的价格(蓝色标注),所以如果我们可以估计出在每种价格下用户选择使用我们的服务的概率,那么我们就可以选择一个价格,使得用户有很大的可能性选择我们的网站,而且同时能保证一个合适的回报,保证我们能获得合适的利润。所以,如果我们可以学习在任何给定价格和其它特征下 y=1y=1y=1 的概率,我们就可以利用这一信息在新用户来的时候选择合适的价格,所以为了获得 y=1y=1y=1 的概率的模型,我们能做的就是用 logisticlogisticlogistic 回归或者神经网络,或者其它一些类似的算法,但现在我们先来考虑 logisticlogisticlogistic 回归,现在假定我们有一个连续运行的网站,以下就是在线学习算法所做的:
    Repeatfeature{Get(x,y)correspondingtouser.Updateθusing(x,y):thetaj:=θj−α(hθ(x)−y)xj(j=0,...,n)}Canadapttochanglyuserpreference.\begin{aligned} &Repeat\ \ feature\ \ \{\\ &\qquad Get\ \ \red{(x,y)}\ \ corresponding\ \ to\ \ user.\\ &\qquad Update\ \ \theta\ \ using\ \ \orange{(x,y)}:\\ &\qquad\qquad \pink{theta_j:=\theta_j-\alpha{(h_\theta(x)-y)x_j}\qquad(j=0,...\ ,n)}\\ &\}\\\ \\ &\rm Can\ \ adapt\ \ to\ \ changly\ \ user\ \ preference. \end{aligned}  ​Repeat  feature  {Get  (x,y)  corresponding  to  user.Update  θ  using  (x,y):thetaj​:=θj​−α(hθ​(x)−y)xj​(j=0,... ,n)}Can  adapt  to  changly  user  preference.​
  • 首先一直重复(代表我们的网站将会一直在线),在某个时候,一个用户访问了这个网站,然后我们将会得到与其相对应的一个 (x,y)(x,y)(x,y) 对,它对应一个客户,或者是网站用户,所以特征 xxx 包括客户所指定的起始地与目的地,以及我们这一次提供给客户的价格,而 yyy 则取 111 或 000,yyy 值取决于客户是否选择了使用我们的运输服务。现在我们获得了这个 (x,y)(x,y)(x,y) 数据对,在线学习算法就会更新参数 θ\thetaθ,利用得到的 (x,y)(x,y)(x,y) 数据对来更新 θ\thetaθ,具体来说,我们将这样更新参数 θ\thetaθ(上式粉色标注) ,我们常用的逻辑回归的梯度下降规则。对于其他的学习算法,不是写 (x,y)(x,y)(x,y) 对(红色标注),我们之前写的是 (x(i),y(i))(x^{(i)},y^{(i)})(x(i),y(i)),但在这个在线学习机制中,我们实际上丢弃了固定的数据集这一概念,取而代之的是一个算法,现在我们获取一个样本(红色标注),然后利用那个样本以这种方式学习(橙色标注),然后丢弃这个样本,不会再使用它。这就是为什么一次只处理一个样本,从样本中学习,再丢弃它,这也就是为什么我们放弃了这种用 iii 索引的固定数据集的表示方法。
  • 如果我们真的运行一个大型网站,网站有连续的用户流,那么这种在线学习算法就非常适用,因为我们相当于可以免费获取数据,如果我们有如此多的数据,可以获取的数据可以说是无限的,那么或许就真的没必要多次使用一个样本。
  • 当然,如果我们只有少量的用户,那么就最好不要用这种在线学习算法,而是把所有的数据保存在一个固定的数据集里,然后对这个数据集使用某种算法,但是如果我们有连续的数据流,那么在线学习算法会非常有效。我也必须要提到,这种在线学习算法会带来一个有趣的效果,就是它可以适应变化的用户偏好。举个具体的例子,如果随着时间变化,经济环境发生变化,用户们可能会对价格更敏感,不那么愿意支付高的费用,也有可能变得对价格不那么敏感,然后愿意支付更高的价格。又或者其它因素,变得对用户的影响更大了,如果一类新的用户开始涌入我们的网站,这种在线学习算法也可以根据变化着的用户偏好进行调适,它可以跟进变化着的用户群体所愿意支付的价格,能做到这一点是因为如果用户群变化了,那么参数 θθθ 的变化与更新会逐渐调适到最新的用户群所体现出来的特点。

2. 实例二:CRT 预测 - 点击率预测学习问题(Learning the predicted click-through rate)

  • 这里有另一个你可能想要使用在线学习的例子,这是一个产品搜索的应用(Application in product search),我们想要使用一种学习算法来学习如何反馈给用户好的搜索列表。
    Productsearch(learningtosearch)Usersearchesfor“Androidphone1080pcamera"Have100phonesinstore.Willreturn10results.x=featuresofphone,howmanywordsinuserquerymatchnameofphone,howmanywordsinquerymatchdescriptionofphone,etc.y=1ifuserclicksonlink.y=0otherwise.Learnp(y=1∣x;θ)Usetoshowuserthe10phonesthey’remostlikelytoclickon.\begin{aligned} &Product\ \ search\ \ (learning\ \ to\ \ search)\\ &\qquad User\ \ searches\ \ for\ \ “Android\ \ phone\ \ 1080p\ \ camera"\\ &\qquad Have\ \ 100\ \ phones\ \ in\ \ store.\ \ Will\ \ return\ \ 10\ \ results.\\ &\qquad x=features\ \ of\ \ phone,\ \ how\ \ many\ \ words\ \ in\ \ user\ \ query\ \ match\\ &\qquad name\ \ of\ \ phone,\ \ how\ \ many\ \ words\ \ in\ \ query\ \ match\ \ description\\ &\qquad of\ \ phone,\ \ etc.\\ &\qquad y=1\ \ if\ \ user\ \ clicks\ \ on\ \ link.\ \ y=0\ \ otherwise.\\ &\qquad Learn\ \ p(y=1|x;\theta)\\ &\qquad Use\ \ to\ \ show\ \ user\ \ the\ \ 10\ \ phones\ \ they’re\ \ most\ \ likely\ \ to\ \ click\ \ on.\\ \end{aligned} ​Product  search  (learning  to  search)User  searches  for  “Android  phone  1080p  camera"Have  100  phones  in  store.  Will  return  10  results.x=features  of  phone,  how  many  words  in  user  query  matchname  of  phone,  how  many  words  in  query  match  descriptionof  phone,  etc.y=1  if  user  clicks  on  link.  y=0  otherwise.Learn  p(y=1∣x;θ)Use  to  show  user  the  10  phones  they’re  most  likely  to  click  on.​
  • 举个例子,我们有一个在线卖电话的商铺,一个卖手机的商铺,我们有一个用户界面,可以让用户登陆网站,键入一个搜索条目,例如,安卓手机 1080p1080p1080p 摄像头。假定商铺中有 100100100 种手机,而且由于我们的网站设计,当一个用户键入一个命令,如果这是一个搜索命令,我们就会找出合适的 101010 部手机,供用户选择。
  • 我们希望有一个学习算法来帮助找到在这 100100100 部手机中哪 101010 部手机是应该反馈给用户的,是对用户搜索的最佳回应,接下来是一种解决问题的思路,对于每一个手机,以及一个给定的用户搜索命令,我们可以构建一个特征向量 xxx,这个特征向量 xxx 可能会表示手机的各种特点,它可能会体现用户的搜索与这部手机的类似程度有多高,还可能体现这个用户搜索命令中有多少个词可以与这部手机的名字相匹配,或者这个搜索命令中有多少词与这部手机的描述相匹配等等,所以特征向量 xxx 体现手机的特点,还体现这部手机与搜索命令在各个维度的匹配程度。
  • 我们想要做的就是,估测用户点击某一个手机的链接的概率,因为想要给用户展示他们可能想要买的手机,我们想要给用户提供那些他们很可能在浏览器中点进去查看的手机,所以我们将 y=1y =1y=1 定义为用户点击了手机的链接,而 y=0y=0y=0 是指用户没有点击链接,然后我们想要做的就是根据特征 xxx,即手机的特征以及搜索指令的匹配程度,来预测用户点击特定链接的概率。如果要给这个问题命名,用一种运行这类网站的人所使用的语言来命名,这类学习问题其实被称作点击率预测学习问题(learning the predicted click-through rate),即 CTRCTRCTR 预测,意思是学习用户点击某一个我们提供给他们的链接的概率,CTRCTRCTR 是点击率的缩写,如果我们能够估计任意一个手机的点击率,我们可以利用这个来给用户展示 101010 个他们最有可能点击的手机,因为从这 100100100 个手机中,我们可以计算出每一步手机的概率,然后选择 101010 部用户最有可能点击的手机,这就是一个非常合理的决定展示给用户的 101010 个搜索结果的方法。
  • 更明确地说,假定每次用户进行一次搜索,我们回馈给用户 101010 个结果,这样一来,我们就会得到 101010 个 (x,y)(x,y)(x,y) 数据对。实际上每当一个用户访问我们的网站,我们就得到 101010 个数据样本,因为对于这 101010 部我们选择要展示给用户的手机,我们从每一部得到一个特征矢量 xxx,对于这 101010 部手机中的每一个,我们还会得到对应的 yyy 的取值,我们会观察 yyy 的取值,这些取值是根据用户有没有点击那个链接来决定的。
  • 因此运行此类网站的一种方法就是不停地给用户展示你对他们可能会喜欢的 101010 个手机的预测,那么,每次一个用户访问,我们将会得到 101010 个样本,即 101010 个 (x,y)(x,y)(x,y) 数据对,然后利用一个在线学习算法来更新我们的参数,对这 101010 个样本利用 101010 步梯度下降法来更新参数,然后,我们可以丢弃掉这些数据,如果我们真的拥有一个连续的用户流进入网站,这就是一个非常合理的方法来学习我们的算法中的参数,来给用户展示 101010 部他们最有可能点击查看的手机。所以,这是一个产品搜索问题,或者说是一个学习将手机排序,学习搜索手机的样例。

3. 其他例子

Otherexamples:Choosingspecialofferstoshowuser;customizedselectionofnewsarticles;productrecommendation;…\begin{aligned} &\rm Other\ \ examples:\ \ Choosing\ \ special\ \ offers\ \ to\ \ show\ \ user;\ \ customized\\ &\rm selection\ \ of\ \ news\ \ articles;\ \ product\ \ recommendation;\ \ …\\ \end{aligned} ​Other  examples:  Choosing  special  offers  to  show  user;  customizedselection  of  news  articles;  product  recommendation;  …​

  • 我们还有一些其他的例子,其中一个例子是,如果我们有一个网站,我们想要决定给用户展示什么样的特别优惠,这与手机那个例子非常类似;或者我们有一个网站,我们给不同的用户展示不同的新闻文章,如果我们是一个新闻抓取网站,那么我们同样可以使用一个一个类似的系统来选择,来展示给用户他们最优可能感兴趣的新闻文章,以及那些他们最有可能点击的新闻文章;与特别优惠类似的还有商品推荐。而且实际上,如果我们有一个协作过滤系统(Collaborative filtering system),它可以给你更多的特征输入到逻辑回归分类器以此预测可能推荐给用户的不同产品的点击率。

  • 当然我们需要说明的是,这些问题中的任何一个都可以被转变为标准的、拥有一个固定的样本集的机器学习问题,或许我们可以让网站先运行几天,然后保存一个数据集,一个固定的数据集,然后对其运行一个学习算法,但是这些问题在实际中,我们会看到大公司会获取如此多的数据,所以真的没有必要来保存一个固定的数据集,你可以使用一个在线学习算法来连续的学习,从这些用户不断产生的数据中来学习。

  • 这就是在线学习机制,与随机梯度下降算法非常类似,唯一的区别是,我们不会使用一个固定的数据集,而是获取一个用户样本,从那个样本中学习,然后丢弃那个样本,继续处理下一个,而且如果我们的某一种应用有一个连续的数据流,这样的算法可能会非常值得考虑。当然,在线学习的一个优点就是,如果我们有一个变化的用户群,又或者我们在尝试预测的事情在缓慢变化,例如用户的品味在缓慢变化,在线学习算法可以慢慢地调试我们所学习到的假设,将其调节更新到最新的用户行为。

六、映射归约与数据并行(Map-reduce and data parallelism)

  • 在前几节中我们讨论了随机梯度下降以及随机梯度下降算法的几个变种,例如在线学习。这些算法可以在单个机器或者单个电脑上运行,但是很多机器学习问题过于庞大以至于不能单机运行,有时候可能数据太多了,我们不想把所有数据都在电脑上跑一遍,无论我们在这台电脑上用了什么算法。所以本节我们将介绍一个不同方法,可以应用在大规模机器学习上,这个方法叫做 MapReduce\rm MapReduceMapReduce。虽然我们用了好几节来讲解随机梯度下降,在讲解 MapReduce\rm MapReduceMapReduce 方法上用的时间相对较少,但这并不代表 MapReduce\rm MapReduceMapReduce 比随机梯度下降不重要,花的时间少不表示不重要。有些人说 MapReduce\rm MapReduceMapReduce 至少和随机梯度下降一样重要,还有人认为 MapReduce\rm MapReduceMapReduce 是一种比随机梯度下降更重要的思想,只是因为它更容易解释,所以我们才会在这上面花费更少的时间。不过有了这个概念,我们就可以将学习算法应用于随机梯度下降不能解决的规模更大的问题

1. 采用 MapReduce 的批量梯度下降模型

  • 比如我们想要拟合一个线性回归模型,或者逻辑回归模型亦或其它的,我们先从批量梯度下降开始,这是批量梯度下降的学习规则(下式行一):
    Map-reduceBatchgradientdescent:θj:=θj−α1400∑i=1400(hθ(x(i))−y(i))xj(i)Machine1:Use(x(1),y(1)),...,(x(100),y(100))tempj(1)=∑i=1100(hθ(x(i))−y(i))xj(i)Machine2:Use(x(101),y(101)),...,(x(200),y(200))tempj(2)=∑i=101200(hθ(x(i))−y(i))xj(i)Machine3:Use(x(201),y(201)),...,(x(300),y(300))tempj(3)=∑i=201300(hθ(x(i))−y(i))xj(i)Machine4:Use(x(301),y(301)),...,(x(400),y(400))tempj(4)=∑i=301400(hθ(x(i))−y(i))xj(i)Combine:θj:=θj−α1400∑i=1400(tempj(1)+tempj(2)+tempj(3)+tempj(4))(j=0,...,n)\begin{aligned} &\textbf{Map-reduce}\\ &{\rm Batch\ \ gradient\ \ descent:}\theta_j:=\theta_j-\alpha\frac{1}{{400}}\blue{\sum^{{400}}_{i=1}(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}}\\ &\qquad {\rm Machine\ 1:Use}\ \ (x^{(1)},y^{(1)}),...\ ,(x^{(100)},y^{(100)})\\ &\qquad \qquad \qquad temp^{(1)}_j=\sum^{100}_{i=1}(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}\\ &\qquad {\rm Machine\ 2:Use}\ \ (x^{(101)},y^{(101)}),...\ ,(x^{(200)},y^{(200)})\\ &\qquad \qquad \qquad temp^{(2)}_j=\sum^{\red{200}}_{i=\red{101}}(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}\\ &\qquad {\rm Machine\ 3:Use}\ \ (x^{(201)},y^{(201)}),...\ ,(x^{(300)},y^{(300)})\\ &\qquad \qquad \qquad temp^{(3)}_j=\sum^{300}_{i=201}(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}\\ &\qquad {\rm Machine\ 4:Use}\ \ (x^{(301)},y^{(301)}),...\ ,(x^{(400)},y^{(400)})\\ &\qquad \qquad \qquad temp^{(4)}_j=\sum^{400}_{i=301}(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}\\ &\rm{Combine:}\\ &\qquad \green{\theta_j:=\theta_j-\alpha\frac{1}{{400}}\sum^{{400}}_{i=1}(temp^{(1)}_j+temp^{(2)}_j+temp^{(3)}_j+temp^{(4)}_j)}\\ &\qquad\quad (j=0,...\ ,n)\\ \end{aligned} ​Map-reduceBatch  gradient  descent:θj​:=θj​−α4001​i=1∑400​(hθ​(x(i))−y(i))xj(i)​Machine 1:Use  (x(1),y(1)),... ,(x(100),y(100))tempj(1)​=i=1∑100​(hθ​(x(i))−y(i))xj(i)​Machine 2:Use  (x(101),y(101)),... ,(x(200),y(200))tempj(2)​=i=101∑200​(hθ​(x(i))−y(i))xj(i)​Machine 3:Use  (x(201),y(201)),... ,(x(300),y(300))tempj(3)​=i=201∑300​(hθ​(x(i))−y(i))xj(i)​Machine 4:Use  (x(301),y(301)),... ,(x(400),y(400))tempj(4)​=i=301∑400​(hθ​(x(i))−y(i))xj(i)​Combine:θj​:=θj​−α4001​i=1∑400​(tempj(1)​+tempj(2)​+tempj(3)​+tempj(4)​)(j=0,... ,n)​
  • 为了书写方便,我们在这里假定样本数量 mmm 等于 400400400,当然根据我们的标准,对于大规模学习问题,这个 mmm 确实是有点小,我们更有可能会把这个算法应用在一个规模巨大的问题上,比如说有 444 亿样本或者更大,但是为了书写上的方便就先假装我们只有 400400400 个样本,在这种情况下,批量梯度下降的学习规则中就有 1400\frac{1}{400}4001​ ,求和也是从 i=1i=1i=1 到 400400400 ,即有 400400400 个样本,如果 mmm 非常大,那么这一步的计算量将会非常大,下面讲解 MapReduce\rm MapReduceMapReduce 的原理。
  • 假定我们有训练集,即 (x,y)(x,y)(x,y) 数据对,它从 (x(1),y(1))(x^{(1)},y^{(1)})(x(1),y(1)) 开始,一直到 400400400 即 (x(m),y(m))(x^{(m)},y^{(m)})(x(m),y(m)),于是我们的训练集有 400400400 个样本,根据 MapReduce\rm MapReduceMapReduce 思想,我们把训练集分割成不同的子集,这个例子中,我们假定有 444 台电脑,或者 444 台机器并行处理训练集数据,因此我们把数据分成 444 份,如果我们有 101010 台或者 100100100 台机器,我们可以把训练集分成 101010 份或 100100100 份。444 台机器中的第一台要做的就是用前 14\frac{1}{4}41​ 的训练集,也就是前 100100100 个训练样本。具体来说,就是对前 100100100 个训练样本,计算这个求和式子(蓝色标注),也就是计算 tempj(1)temp^{(1)}_jtempj(1)​,这个上标 111 表示第一台机器,它等于 i=1i=1i=1 到 100100100 求和,然后再把上面的求和项放进去,得到对应的表达式,这就是梯度下降。相同的,把第二部分的数据发给第二个机器,会使用样本 101101101 到 200200200,计算 tempj(1)temp^{(1)}_jtempj(1)​ 是一样的求和,只是样本从 101101101 到 200200200(红色标注)。相似的,对于第三第四个机器会使用第三第四部分的训练集。现在每个机器要对 100100100 个样本,而不是 400400400 个样本求和,都只需要做 14\frac{1}{4}41​ 的工作,这使得它们将运算速度提高到原来的四倍。
  • 最后,完成这些计算后,我们将这些 temptemptemp 变量重新放在一起,就是把这些变量发送给一个中心服务器,中心服务器会整合这些结果,尤其是它将更新参数 θj\theta_jθj​ ,更新后的 θj\theta_jθj​ 等于原先的 θj\theta_jθj​ 减去学习率 α\alphaα 乘以 1400\frac{1}{400}4001​ 乘以 tempj(1)temp^{(1)}_jtempj(1)​ 加到 tempj(4)temp^{(4)}_jtempj(4)​,当然 j=0j=0j=0 至 nnn 要分别计算,nnn 是特征总数,这个等式(绿色标注),它做的事情和中心服务器相同,就是把所有的 temptemptemp 结果相加,就等于最上面的求和(蓝色标注),即我们最初计算的批量梯度下降,然后其余部分也是相同的,因此这个公式完全等同于批量梯度下降算法,只是不需要在一台机器上对 400400400 个训练样本进行计算了,而是可以把工作分给四个机器。

2. 形象化 MapReduce

  • 这就是 MapReduce\rm MapReduceMapReduce 技巧的示意图(上图),我们有训练集,如果我们想要在四台机器上进行并行计算,我们可以把训练集均分,或者尽量均匀地分成四个子集,然后我们将这些训练数据的子集发送给四个不同的电脑,每一台电脑都可以只计算 14\frac{1}{4}41​ 训练集的总和,最终每个电脑把结果发送给一个中心服务器,把结果汇总,正如上一小节那样,梯度下降的主要工作是从 i=1i=1i=1 到 400400400 求和,更概括的表示是,从 i=1i=1i=1 到 mmm 对梯度下降公式求和。现在因为四台机器各自承担 14\frac{1}{4}41​ 的计算量,我们可以加速到四倍速,特别是,如果没有网络延迟,也不考虑通过网络来回传输数据所用的时间,那么我们就可以有 444 倍的计算效率。当然实际上因为网络延迟、结果汇总也需要额外的时间,以及其它因素,实际上速度会比 444 倍要小。尽管这样, MapReduce\rm MapReduceMapReduce 也提供了一种方式来处理一台电脑无法处理的大规模数据。

3. 在多台电脑上使用 MapReduce

  • 如果我们想把 MapReduce\rm MapReduceMapReduce 应用在某种学习算法上,通过多台电脑并行计算来实现加速,我们需要思考一个关键问题,我们的学习算法是否可以表示成对训练集的一种求和,实际上很多学习算法都可以表示成对训练集的函数求和,而在大数据集上运行所消耗的计算量就在于需要对非常大的训练集进行求和,所以只要我们的学习算法可以表示为对训练集的求和,或者学习算法的主要工作可以表示成对训练集的求和,那么就可以用 MapReduceMapReduceMapReduce 将学习算法的适用范围扩大到非常大的数据集。
    Manylearningalgorithmscanbeexpressedascomputingsumsoffunctionsoverthetrainingset.\begin{aligned} &\rm{Many\ \ learning\ \ algorithms\ \ can\ \ be\ \ expressed\ \ as\ \ computing\ \ sums\ \ }\\ &\rm{of\ \ functions\ \ over\ \ the\ \ training\ \ set.}\\ \end{aligned} ​Many  learning  algorithms  can  be  expressed  as  computing  sums  of  functions  over  the  training  set.​
  • 让我们再看最后一个例子:
    E.g.foradvancedoptimization,withlogisticregression,need:Jtrain(θ)=−1m∑i=1my(i)loghθ(x(i))−(1−y(i))log(1−hθ(x(i)))∂∂θjJtrain(θ)=1m∑i=1m(hθ(x(i))−y(i))xj(i)\begin{aligned} &\rm{E.g.\ \ for\ \ advanced\ \ optimization,\ \ with\ \ logistic\ \ regression,\ \ need:}\\ &\qquad J_{train}(\theta)=-\frac{1}{m}\sum^m_{i=1}y^{(i)}{\rm {log}}h_\theta(x^{(i)})-(1-y^{(i)}){\rm{log}}(1-h_\theta(x^{(i)}))\\ &\qquad\qquad \frac{\partial}{\partial\theta_j}J_{train}(\theta)=\frac{1}{m}\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j\\ \end{aligned} ​E.g.  for  advanced  optimization,  with  logistic  regression,  need:Jtrain​(θ)=−m1​i=1∑m​y(i)loghθ​(x(i))−(1−y(i))log(1−hθ​(x(i)))∂θj​∂​Jtrain​(θ)=m1​i=1∑m​(hθ​(x(i))−y(i))xj(i)​​
  • 假设我们想要用一个高级的优化算法,比如 L–BFGS\rm L\text{\textendash}BFGSL–BFGS 或者共轭梯度算法等等。假定我们要训练一个逻辑回归学习算法,我们需要去计算两个重要的量,一个是对于高级学习算法(比如 L–BFGS\rm L\text{\textendash}BFGSL–BFGS 和共轭梯度),我们需要提供一个过程来计算优化目标的代价函数。对于逻辑回归,你应该还记得它的代价函数(上面一式),包括对训练集的求和,因此如果我们想要并行 101010 个机器,我们就要把训练集分给 101010 个机器,让它们各自对 110\frac{1}{10}101​ 的训练样本计算这个量的总和。
  • 另外,高级优化算法还需要这些偏导项的计算过程(上面二式)。同样的,逻辑回归的偏导项可以被表示成对训练集的求和,那么与前面的同理,我们让每一个机器对训练集的一小部分进行求和。最终,计算得到这些后,电脑把它们发送给中心服务器,然后将各部分和加起来,也就是对 temp(i)temp^{(i)}temp(i) 或者说 tempj(i)temp^{(i)}_jtempj(i)​ 进行求和,这些值是第 iii 台计算机算出来的。中心服务器会把这些值相加,获得总的代价函数,获得总的偏导项,接着将这两个值交给高级优化算法。推广一下,只要学习算法可以表示成一系列的求和形式,或者表示成在训练集上对函数的求和形式,我们就可以使用 MapReduce\rm MapReduceMapReduce 技巧来并行化学习算法,使得其可以应用于非常大的数据集。

4. 在多核电脑上使用 MapReduce

  • 最后再提一点,目前只讨论了运用 MapReduce\rm MapReduceMapReduce 算法在多台电脑上并行计算,可能是计算机集群中的多台电脑,或者是数据中心的多台电脑,但是有时也可以在单机上进行 MapReduce\rm MapReduceMapReduce 计算,因为现在很多电脑可以有多个处理核心(processing cores) 有多个 CPU\rm CPUCPU , CPU\rm CPUCPU 又有多个核心。

  • 如果我们有一个很大的数据集,然后比如我们有一个四核的电脑(就是四个计算核心),那么即使在单机上,我们也可以把训练集分成多份,然后把训练集发送给多个核心,在一台机器中完成,只用一个台式机或者一个服务器,用 MapReduce\rm MapReduceMapReduce 方法分摊工作,然后每个核心计算 14\frac{1}{4}41​ 训练样本的总和,再把每一部分之和加起来,最终得到整个训练集之和。把 MapReduce\rm MapReduceMapReduce 看成是一台机器中不同核心的并行,而不是多台机器并行,这样的好处是我们可以不用担心网络延迟问题了。因为通信传输收发变量 tempjtemp_jtempj​ 都在同一台机器里,网络延迟是很小的,相比较于我们在数据中心的不同机器上进行并行计算。

  • 最后关于多核机器并行计算还需要提到一点,取决于不同的实现,如果我们有一个多核机器,然后我们有某些线性代数的库,实际上,有些线性代数库可以自动在一台机器的不同核心上进行并行代数运算,如果我们幸运地用到这样的线性代数库(当然并不是每一个库都适用),并且如果我们的学习算法有非常好的向量化表示,我们就可以直接以向量化的形式应用标准学习算法,不用担心并行,因为我们的线性代数库会帮我们处理好,所以我们可以不应用 MapReduce\rm MapReduceMapReduce 。但是对于其它学习问题,利用 MapReduce\rm MapReduceMapReduce 的实现,或者使用 MapReduce\rm MapReduceMapReduce 的形式用不同核心并行计算,可能是个好办法,可以加速我们的学习算法。

  • 本节中我们介绍了 MapReduce\rm MapReduceMapReduce 方法来并行化计算机器学习问题,例如通过将数据发送到数据中心的多台电脑,这种方法也适用于同一台计算机上的多核并行计算,现在也有很好的开源的 MapReduce\rm MapReduceMapReduce 实现,有个开源的系统叫做 Hadoop\rm HadoopHadoop,不管是用我们自己的实现或者用其他人的开源实现,我们都可以并行化学习算法,并让它运行在比单机可以承载的更大的数据集上

总结

  • 本篇文章主要介绍了大规模的机器学习,我们喜欢找出合理的计算方法或高效的计算方法,用来处理庞大的数据集,同时也了解了两个主要方法,随机梯度下降映射归约(Map reduce),用来处理海量的数据集。
  • 随机梯度下降算法在每次迭代中不需要考虑全部的训练样本,仅仅只需要考虑一个训练样本,因此要快得多,我们将能够将这种思想应用到很多学习算法中,来适应更大的数据集,从而提高算法的性能。
  • 小批量梯度下降算法某种意义上是一个介于随机梯度下降算法和批量梯度下降算法之间的算法,当我们选用好的小批量值,同时如果使用一个优秀的向量化方法,那么有时它会比随机梯度下降算法和批量梯度下降算法都要快
  • 随机梯度下降收敛中,我们介绍了一种方法来近似地检验随机梯度下降算法在优化代价函数中的表现。这种方法并不需要定期地扫描整个训练集来计算出整个训练集的代价函数,而是只关注像前 100010001000 个的这些样本,我们可以用这个方法来确保随机梯度下降法运行正确并且在收敛,或者用它来调整学习速率 ααα 。
  • 在线学习机制与随机梯度下降算法非常类似,唯一的区别是,我们不会使用一个固定的数据集,而是获取一个用户样本,从那个样本中学习,然后丢弃那个样本,继续处理下一个,而且如果我们的某一种应用有一个连续的数据流,这样的算法可能会非常值得考虑。当然,在线学习的一个优点就是,如果我们有一个变化的用户群,又或者我们在尝试预测的事情在缓慢变化,例如用户的品味在缓慢变化,在线学习算法可以慢慢地调试我们所学习到的假设,将其调节更新到最新的用户行为
  • 映射归约与数据并行中我们介绍了 MapReduce\rm MapReduceMapReduce 方法来并行化计算机器学习问题,例如通过将数据发送到数据中心的多台电脑,这种方法也适用于同一台计算机上的多核并行计算,现在也有很好的开源的 MapReduce\rm MapReduceMapReduce 实现,有个开源的系统叫做 Hadoop\rm HadoopHadoop,不管是用我们自己的实现或者用其他人的开源实现,我们都可以并行化学习算法,并让它运行在比单机可以承载的更大的数据集上。

机器学习(十七)大规模机器学习相关推荐

  1. 机器学习之大规模机器学习

    #Large scale machine learning(大规模机器学习) 即处理大数据集的算法. #Learning with large datasets(学习大数据集) 在需要训练大量模型时, ...

  2. 吴恩达机器学习[18]-大规模机器学习

    大规模机器学习 Large scale machine learning 学习大数据集 learning with large datasets 随机梯度下降 Stochastic Gradient ...

  3. 吴恩达机器学习笔记(九)——大规模机器学习

    大规模机器学习 1 大规模机器学习可行性 由之前机器学补充里的知识可知,有的时候并不是数据越多对算法越好,当方差偏小的时候,说明此时的拟合度会比较大,数据缺乏泛性,这个时候使用更大的数据集可能会对算法 ...

  4. 第十七章 大规模机器学习-机器学习老师板书-斯坦福吴恩达教授

    第十七章 大规模机器学习 17.1 大数据集学习 17.2 随机梯度下降 17.3 mini-batch 梯度下降 17.4 随机梯度下降收敛 17.5 在线学习 17.6 减少映射与数据并行 17. ...

  5. 吴恩达《机器学习》第十七章:大规模机器学习

    文章目录 十七.大规模机器学习 17.1 大型数据集的学习 17.2 随机梯度下降法 17.3 随机梯度下降收敛 17.4 小批量梯度下降 17.5 在线学习 17.6 映射化简和数据并行 十七.大规 ...

  6. 吴恩达机器学习笔记(十七)-大规模机器学习

    第十八章 大规模机器学习 学习大数据集 这一章中将讲述能够处理海量数据的算法. 思考:为什么要使用海量数据集呢?要知道获取高性能的机器学习系统途径是采用低偏差的学习算法,并用大数据进行训练. 这里拿之 ...

  7. SystemML大规模机器学习,优化算子融合方案的研究

    SystemML大规模机器学习,优化算子融合方案的研究 摘要 许多大规模机器学习(ML)系统允许通过线性代数程序指定定制的ML算法,然后自动生成有效的执行计划.在这种情况下,优化的机会融合基本算子的熔 ...

  8. 干货丨大规模机器学习框架的四重境界(经典长文,值得收藏)

    作者:carbon zhang 1. 背景 自从google发表著名的GFS.MapReduce.BigTable三篇paper以后,互联网正式迎来了大数据时代.大数据的显著特点是大,哪里都大的大.本 ...

  9. 轻量级大规模机器学习算法库Fregata开源:快速,无需调参

    作者:张夏天,TalkingData首席数据科学家.12年大规模机器学习和数据挖掘经验,对推荐系统.计算广告.大规模机器学习算法并行化.流式机器学习算法有很深的造诣:在国际顶级会议和期刊上发表论文12 ...

最新文章

  1. call of overloaded 'round(float)' is ambiguous
  2. SVN mime-type 笔记
  3. linux ubuntu 切换到超级用户失败的解决办法(su 认证失败)
  4. xss测试工具(xsstrike基于python)
  5. LeetCode 134. 加油站(贪心)
  6. 轮询数据库 java_谁做过定时任务,轮询查询数据。
  7. 怎么一键执行java程序_如何快速、低成本、低扰动地运行一段Java代码
  8. fastdfs的tracker启动之后一直选举_Elasticsearch选举流程详解
  9. Linux驱动调试i2c设备从地址的确定
  10. Java 问答:终极父类(第一部分)
  11. 苹果id无法登陆_科技来电:苹果为什么需要登录ID才能下载
  12. 解决鼠标不能移出视频框,切换网页不能播视频的小窍门
  13. dell电脑驱动安装失败
  14. 使用Visio 2013 画跨职能流程图
  15. html是一种网页设计语言,html网页设计教程
  16. 自动控制原理笔记-根轨迹法
  17. 团队项目开发流程总结
  18. PHP 实现 阿里云 短信发送 功能步骤
  19. 2015年7月29日工作总结
  20. M站底部固定悬浮导航代码分享

热门文章

  1. SQLyog远程连接mysql
  2. [探地雷达]利用Faster RCNN对B-SCAN探地雷达数据进行目标检测
  3. 2020年江苏中考数学能用计算机吗,江苏中考改革
  4. linux下查看运行进程详细信息
  5. IDEA 打开项目后就闪退问题
  6. java double转换为string_Java方法将Double转换为String
  7. C语言三子棋游戏的编程实现
  8. 淘宝API 获取—商品订单详情
  9. BurpSuit--Intruder(暴力破解)
  10. 一起玩转算法面试,保姆级攻略(附高清无码算法总结导图),建议收藏