【李宏毅机器学习】Why Deep Learning(p15) 学习笔记
李宏毅机器学习学习笔记汇总
课程链接
这集语音部分属实听不明白了qaq
文章目录
- Deep is better
- Fat+Short vs Thin+Tall
- Modularization 模块化
- 做deep learning 实际上就是做模块化的过程
- **Deep Learning反而需要更少的数据!而不是需要更多的数据才可以深度学习。**
- Modularization - Image
- Modularization - Speech
- 人类语言的分层化结构
- 语音辨识的步骤
- The first stage of speech recognition 的第一步
- Each state has a stationary distribution for acoustic features.(每个state对于声学特征有着平稳的分布)
- 传统方法:
- 深度学习出现后的方法
- 难得听懂的重点
- 折叠空间
- DeepLearning其他好处
Deep is better
Fat+Short vs Thin+Tall
shallow vs deep
为什么deep learning不是简单的增加参数,来实现好的效果?
Modularization 模块化
做deep learning 实际上就是做模块化的过程
并不是在主函数里放入所有的东西,而是写了很多小的function,降低程序复杂度,使其变得简洁
长头发男生和短头发女生的数据都很少
将直接判断长头发男生还是短头发女生的问题,拆分为,先判断男孩女孩,再判断长头发短头发,这样就不会出现数据太少的问题(长/短头发,男女生的数量都很多)
深度模型就是特征提取模块+分类器模块
每个分类器去参考前面的基础分类器,把他们当作module模块,每个分类器都共用同样的模块。即,后面的分类器可以利用前面的分类器。
每一个neural相当于一个基础分类器,后一层的neural把前一层基础分类器的output当作input,以此类推,,,
在deep learning中,模块化是从数据中自动学到的。
做modularization的好处是把复杂模型变得简单,就算训练数据不多,也可以做好。
Deep Learning反而需要更少的数据!而不是需要更多的数据才可以深度学习。
如果有足够的数据,直接table lookup查表就好了,就不需要Machine Learning了。
而我们没有足够的数据,就无法查表,所以需要Deep Learning
Modularization - Image
Modularization - Speech
人类语言的分层化结构
Phoneme:音素
Tri-phone:三音素
同样的音素可能会有不同的发音
语音辨识的步骤
The first stage of speech recognition 的第一步
分类:输入声学特征,输出state
每隔一段时间取一个window,得到一系列的声学特征
第一步做的工作就是:决定每一个声学特征属于哪个state,仅此而已,还有其他很多步骤,在此不讨论。
Each state has a stationary distribution for acoustic features.(每个state对于声学特征有着平稳的分布)
对比Deep learning前后,语音辨识模型有什么不同。
要做的事情,在语音辨识第一阶段的任务就是分类,决定每个声学特征属于哪个state
传统方法:
中英文会有很多的tri-phone,每一个Phoneme 随着文本的不同,也要用不同的model,所以会遇到训练数据不够的情况。
有一些state会共用同样的model distribution,相当于不同的pointer指向了相同的address
深度学习出现后的方法
难得听懂的重点
- 比如100个神经元,1层的话只能表示网络能表示的情况的集合,就是function set。
- 而多层还可以表达“元素”间的位置关系(搭配关系)。
折叠空间
将空间做各种对折,就可以有复杂图案
一笔data可以发挥5笔data的作用
Deep Learning可以充分利用数据
hidden layer多的模型,在数据少的时候效果好
DeepLearning其他好处
不同的人说相同的话,经过多层hidden layer之后,就聚合在一起了
手写数字识别
还有更多使用deep learning的理由
【李宏毅机器学习】Why Deep Learning(p15) 学习笔记相关推荐
- Yoshua Bengio——《Deep Learning》学习笔记1
版权声明:此为Yoshua Bengio的新书<Deep Learning>学习笔记,本文为博主在研究工作中经验分享,包括学习笔记.摘录.研究成果,以便以后工作参考之用,欢迎交流和批评:其 ...
- 李宏毅机器学习之Deep Learning简介
一.深度学习的发展趋势 1958:Perceptron(linear model) 1969:Perceptron has limitation 1980:Multi-layer perceptron ...
- 机器学习(西瓜书)深度学习(Deep Learning)学习笔记
本文为准备研究生课程Computer Vison而写,力求对机器学习与深度学习基本概念和应用实践产生一定的理解. 机器学习(西瓜书)-周志华 第1章 绪论 根据训练数据是否拥有标记信息 ...
- 李宏毅《Deep Learning》学习笔记 - transformer
学习资料 视频:https://www.youtube.com/watch?v=ugWDIIOHtPA&list=PLJV_el3uVTsOK_ZK5L0Iv_EQoL1JefRL4& ...
- 《Neural network and deep learning》学习笔记(一)
Using neural nets to recognize handwritten digits Learning with gradient descent 对于一个网络,它的代价函数: C(w, ...
- Lan Goodfellow 《DEEP LEARNING》学习笔记 --第四章
https://app.yinxiang.com/shard/s64/nl/22173113/a89ab8f8-3937-419c-8b81-cc913abaa35a/ 为了方便起见,我用的可手写的a ...
- 《deep learning》学习笔记(3)——概率与信息论
欢迎大家关注我的公众号[老周聊架构],Java后端主流技术栈的原理.源码分析.架构以及各种互联网高并发.高性能.高可用的解决方案. 3.1 为什么要使用概率 概率法则告诉我们AI系统如何推理,据此我们 ...
- 台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep?
台大李宏毅Machine Learning 2017Fall学习笔记 (12)Why Deep? 本博客整理自: http://blog.csdn.net/xzy_thu/article/detail ...
- 台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (10)Tips for Deep Learning 注:本博客主要参照 http://blog.csdn.net/xzy_thu ...
- 台大李宏毅Machine Learning 2017Fall学习笔记 (7)Introduction of Deep Learning
台大李宏毅Machine Learning 2017Fall学习笔记 (7)Introduction of Deep Learning 最近几年,deep learning发展的越来越快,其应用也越来 ...
最新文章
- Be a person
- 清除WINDOW远程登录服务器的信息
- java的case_java中的switch case语句使用详解
- MySQL 支持的数据类型
- 考研复试操作系统知识点总结
- android studio 连接夜神模拟器
- echarts 鼠标弹框显示百分比柱状图显示百分比
- 谈一谈我使用AI得贤招聘官的AI面试体验之旅
- mysql数据库设计教材_mySQL教程 第1章 数据库设计
- 窥探Linux内核进程信息task_struct
- 百度地图InfoWindow信息窗口的自定义和样式修改
- 新版仿58转转闲鱼网站源码+二手商品交易平台系统
- 模糊神经网络matlab模拟仿真
- 上顿号符号_标点符号(1):谈谈顿号的用法
- matlab grayslice,MATLAB图像处理函数汇总大全(2)
- 【树莓派】通过树莓派远程开机电脑
- “模拟中继”在录音系统上的应用
- 大数据技术怎么自学?
- PYTHON循环读取多个excel文件并处理的代码
- 【设计】稳定性的研究-非线性时变系统-小信号建模-dc