• gradient descent
  • Newtons Method
  • Momentum
  • Adagrad
  • RMSProp
  • Adam

转载请注明出处: http://blog.csdn.net/c602273091/article/details/79111771

机器学习或者是深度学习中涉及了不少优化理论,那么问题来了,在机器学习中,它优化的目标是什么?它是如何进行优化的?为什么进行这种优化?这种优化的好处以及坏处?以及这种优化方法适合什么情况?最近在上CMU 18-660 Optimization的课程,一开始看的Convexity看得我一脸懵逼,老师讲得慢,今年这个新来的老师把phd的10-725的课程搬了过来,它已经不是以前的水课了。所以我开始学习优化理论,从简单的GD和Newton Method入手感受一下【6】。

Learning可以说是机器学习的核心,而学习的过程的过程需要用到optimization这个工具。这篇文章主要是介绍了梯度下降和牛顿迭代法,顺带着用几句话介绍了牛顿迭代法的改进以及矩阵分解。

gradient descent

上面的式子结果是什么?如果没有理解透GD的话,以上这个可能都会算错。搞混了Lapalace Operator和Hessian Matrix也会搞错。

第一个求的是梯度,那么什么是梯度?梯度就是当前值往变量所在增长方向变化最快的数值,梯度是一个响亮,函数中有几个变量,那么梯度就是几维的向量。所以结果就是一个向量:(忘记了常用导数求导公式【15】)
[2∗x+cos(y),−x∗sin(y)] [2*x+cos(y), -x*

Optimization之GD,Newton Method相关推荐

  1. 牛顿法 Newton Method

    上一次我们讨论了具有 Q-线性收敛性的普通的 gradient descent 方法,今天我们要介绍一种收敛速度更快的算法:Newton Method(或者叫 Newton's Method). 可能 ...

  2. 牛顿法(Newton‘s method)和拟牛顿法(quasi Newton method)

    简述 在看伊恩·古德费洛的深度学习,4.3节基于梯度的优化方法时提到 仅使用梯度信息的优化算法称为 一阶优化算法 ,如梯度下降. 使用Hessian矩阵的优化算法称为 二阶最优化算法 ,如牛顿法. 牛 ...

  3. Newton Method in Maching Learning

    牛顿方法:转自http://blog.csdn.net/andrewseu/article/details/46771947 本讲大纲: 1.牛顿方法(Newton's method) 2.指数族(E ...

  4. 优化算法——牛顿法(Newton Method)

    一.牛顿法概述 除了前面说的梯度下降法,牛顿法也是机器学习中用的比较多的一种优化算法.牛顿法的基本思想是利用迭代点处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似,然后把二 ...

  5. 【最优化算法】基于【MATLAB】的拟牛顿法【Quasi Newton method】分析与推导

  6. 牛顿法(Newton Method)的原理和实现步骤

    牛顿法的法的目的 牛顿法不仅可以用来求解函数的极值问题,还可以用来求解方程的根,二者在本质上是一个问题,因为求解函数极值的思路是寻找导数为0的点,这就是求解方程. 牛顿法的法的原理 一元函数的情况 根 ...

  7. ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION

    Adam: a method for stochastic optimization_一种随机优化的方法[Paper] 目录 核心 介绍 Algorithm Initialization bias c ...

  8. Numerical Optimization和Convex optimization 两本书的选择?

    Numerical Optimization和Convex optimization 两本书的选择? - 知乎https://www.zhihu.com/question/49689245 Numer ...

  9. Note of Numerical Optimization Ch.3

    目录 Numerical Optimization Ch.3 Line Search Methods Step Length Convergence of Line Search Methods Ra ...

  10. Descent Method for 最小化(最优化)问题 (一)

    Descent Method - Gradient Method / Newton's Method / Quasi-Newton methods / CG / et al. 0 Minimizati ...

最新文章

  1. SQL 基础之索引、闪回、临时表(十八)
  2. Mysql 获取当月和上个月第一天和最后一天的解决方案
  3. 数据预处理--样本选择、交叉验证
  4. 测试综合技能的期末预测
  5. Rocket - tilelink - Atomics
  6. 仅仅有人物没背景的图片怎么弄_五分钟写作课 人物篇 人物的出场是个关键时刻...
  7. 2000服务器文件共享,Win2000 Server实现对共享文件的监控
  8. Redis 持久化(学习笔记五)
  9. BZOJ1787 Meet紧急集合
  10. codewars033: Duplicate Encoder 重复编码器
  11. 《Spring揭秘》读后感
  12. 5gh掌上云计算认证不通过_华为云计算认证考试好考吗?我考华为云计算HCIE的经验分享...
  13. 第十章《日期与时间》第6节:ZoneId、ZoneRegion和ZoneOffset
  14. 基于Android平台的图书管理系统的制作(1)
  15. ICAP: 互换客户端地址协议 1
  16. 美团校招php笔试题,【美团点评】2020校招数据分析方向笔试题
  17. Robot Global新世纪的数字货币理财
  18. 汇编语言——子程序调用
  19. 北航2022软件工程第三次作业——结对编程(最长英语单词链)
  20. Python基础之六面向对象高级编程

热门文章

  1. 怎么发表医学职称论文
  2. 8.5,解构主义拼图
  3. 山科大OJ-Promble Print Graphics Problerm (IV) (Append Code)
  4. Axure使用心得体会
  5. IDEA下,工程突然找不到或引用不到jar包。。
  6. 宁用ios不用鸿蒙,鸿蒙撕开谷歌安卓和苹果IOS垄断天幕,不能让华为单打独斗
  7. Java-课程设计-贪吃蛇(BFS算法AI | 编辑地图)
  8. 机构预计区块链产生的商业价值预计到2025年将突破3000亿美元
  9. C语言猴子选王链表实现
  10. 如何利用网络来提升公司业绩?