对于对于1对于一门学科来说

对于一门学科来说,把书读薄,也就是记住与理解其相关名词是最重要的事情,记住与理解之后,这门学科也基本通透了。《深度学习与围棋》这本书中涉及到的深度学习相关知识众多,算法众多,名词也超级多,在此记录深度学习与围棋的名词目录。

名词 解释 页数 注释
机器学习 机器学习不用直接实现算法,而是从样本数据推断出程序或算法。因此,在应用机器学习技术时,我们仍然向计算机提供数据,但不再提供指令,也不再等待预期的输出,而是向它提供我们所希望的输出,让机器自己找到对应的算法。 4 W在围棋中是哪来的,多个特征平面的卷积核是哪来的
训练数据(training data) 提供给机器用来训练的图片 5
标签(label) 图片中人物的名称称为标签 5
机器学习不能做什么 用传统算法就能解决问题;期望程序必须准确无误;简单的启发式规则已经够用了;应用的数据是结构化的;想要一个描述性的模型(即需要看到具体的函数) 6
机器学习能做什么 应用的数据结构是非结构化的;有大量的可用数据或者可以生成;有足够的计算能力和计算时间;
模型训练/模型拟合 首先要选择一个模型,既一族通用函数,然后按照一个流程从这一族函数中选取与目标相匹配的函数,这个流程被称为xxxx 7
模型,参数/权重/W f(x)=ax+b函数可以描述一条直线,我们可以找到一组合适的a,b值,使ax+b能够很好地匹配结果,这里的a,b就是模型参数或者说权重,f(x)就是模型。例如在MNIST中将所有训练集合中标签为8的图像做平均,得到的avg_8就是识别别的图像8的权重。 7,81
TensorFlow/Theano 这是两个图计算库(这里的图是指由相互连接的节点所组成的网络结构)他们可以定义复杂的数学运算序列,然后生成高度优化的实现。 9
Keras 一个深度学习的高级库。提供了很多边界的方法来配置神经网络。后台依赖于TensorFlow/Theano 9
监督学习(supervised learning) 我们已经拥有数以百万计的正确的样本,即用户在应用中上传并手工标记过的所有照片,我们可以训练一个函数来尽可能地你和这些数据样本,并希望这个函数能够聪明的处理照片,我们把这种技术称为xxxx 11
无监督学习(unsupervised learning) 不用任何标签来指导学习过程,算法必须想办法自己从输入数据中识别出模式 12
验证集(validation set) 训练开始之前,把数据中的一小部分10%留作验证,验证集中的数据不能以任何形式参与训练过程 11
准确率(accuracy) 训练完成后,用得到的模型来处理验证集中的图像,把模型建议的标签与已知的正确的标签进行比较,这样就可以计算出训练模型的准确率 11
异常值 我们已经为模型拟合出一条平均直线,如果某个数据点与平均直线的距离超过了某个阈值,就可以称之为xxxx 12
神经网络(neural networks) 神经网络中的函数链条能够将复杂的概念分解成为多个层次的更简单的概念,例如一本书由很多句子组成,句子由字组成,字由笔画组成,笔画由墨点组成,学习的时候先学习笔画然后字然后。。。再例如第一层可以学习如何获取原始数据,后面每一层都将前面的一层组织成更高级更抽象的概念,我们把学习这种抽象的概念的过程称为表征学习(representation learning) 13
围棋名词 棋盘19*19,黑白,落子吃子(提),气,眼,目,胜负计算,贴子,劫争,让子
某一回合可能采取的动作数量叫分支因子,大概为250
Zobrist哈希 3*19*19数组(棋盘是19*19,每个格子有空、黑、白三种状态),用平均分布的数字填满(尽量用32或者64位),然后用数组中的某个数字的xor操作来表达棋盘此时的状态。 41
极小化极大算法(minimaxing) 53
评估函数剪枝 减少深度 59
α-β剪枝 减少宽度,我方走一步之后,让对方走一步,如果对方走了某一步大优,则xxxx 59
蒙特卡洛树搜索MCTS 1)将新的棋局加入树,2)从这个棋局开始随机对弈,3)根据对弈结果更新树节点的统计数据。不断重复1,2,3 66
独热编码(one-hotencoding) 每一个数字占一个槽位 79
波拉尼悖论 知道如何做,但是却无法解释清楚为什么知道 80
sigmoid激活函数 82
softmax激活函数
对率回归/对数几率回归/Logistic regression/逻辑蒂斯回归 我们用一个特征向量x表示一个数据样本,作为算法的输入,将它乘以权重W,添加偏差项b,得到一个预测值y,对y应用sigmoid函数:y=σ(Wx+b) 85
前馈网络 把上面的多个多个y值形成一个向量,这样就可以多次进行这种向量到向量的转换,从而构建出一个更复杂的神经网络,称之为xxxx.每次转换,称之为向前传递 86
多层感知机/深度神经网络 上述定义中,x为输入层,数次转换称为隐藏层,每一次转换称为稠密层或全连接层,最终的输出y为输出层,这个结构称为xxxx.x,y称为可见单元,其余称为隐藏单元。有大量隐藏层的大型网络,叫深度神经网络。 88
仿射性变换

y=Wx+b这个变换称为xxxx

86
损失函数 对于输入的x通过前馈网络产生的y,和x的标签ŷ,y与ŷ的距离的总和称为损失函数。Loss(W,b,y,ŷ)是一个可微函数[由向量(W,b)和(y与ŷ的距离值)形成的非负平滑],我们训练的目的是使损失函数最小。计算y与ŷ的距离可以是很多类型,如均方误差(MSE,在线性回归问题中应用较多)、交叉熵等等。 89
前馈神经网络

由稠密层和激活函数组成的顺序网络,也称为多层感知机

交叉熵损失函数 公式如下: 126
梯度下降 在所有Loss中,找到最小值,就用梯度下降算法。算法也有很多,例如退火,爬山 90
SGD 随机梯度 92
学习率 learning rate

要更新参数,可以从当前的参数中减去由这一批次数据计算出的累积错误。
这里的a>0称为学习率,是训练网络之前确定好的实体参数,通常在0-1之间,
学习到一定进程之后,学习率通常都会衰减,以免破坏学习进度。

92,155
衰减decay,动量momentum

将前一个更新步骤与当前更新步骤相加,U是最近一次更新,W是参数向量,
∂W是由W计算的当前梯度,γ被称为动量项。
例如:sgd=SGD(lr=0.1, momentum=0.9, decay=0.01)学习率0.1动量90%衰减1%

155
反向传播 计算出损失值(也叫增量、误差项,如果损失函数是L2的,损失值也是损失函数的导数Δ),计算激活函数相对于输入变量的导数,传递到上一层,重复上面两个步骤,就是反向传播。最后一步是W*Δ 93,94
卷积核/核/过滤器 是一个小的特殊设计的(不是由人定的而是通过反向传播算法中从数据中学习出来的)矩阵,例如3×3的 120
卷积计算 用一张图像(原始数据)逐步与卷积核矩阵里边的每一个对应位置的数相乘,然后再将所有数字相加,形成新的特征矩阵的过程 119
特征映射/特征平面/featureMap 将n个图像,用1个卷积核分别进行卷积计算,生成的n个矩阵再相加,得到的图像称为1个xxxx,如果有m个卷积核,就会生成m个xxxx。围棋有11个特征平面:1,2,3,4口气的黑/白子平面,黑/白子平面,劫争标记平面 121 本来在121页叫特征映射,在153页又叫特征平面了
卷积层 这种通过使用n×m个卷积核将n个输入图像映射到m个特征映射的过程,成为一个卷积层 121
卷积神经网络 由卷积层、稠密层组成的网络称为xxxx 121
张量
Conv2D Keras中的卷积层,可以对二维数据进行卷积操作 122
Flatten 将卷积层的输出展平为向量,然后可以输送到稠密层 122
Dense 稠密层
Dropout 丢弃率,当前层随机丢弃神经元的比率
池化pooling 缩减图像尺寸。将每个块,如2×2保留其最大值,原始图像就缩减到1/4,叫最大值池化。求平均值,叫平均值池化。 123 MaxPolling2D,最大二维池化层。AveragePolling2D
过拟合 在训练数据是表现好,但是在测试数据是表现不好 127
SGF文件格式 智能游戏格式,W[CC]代表CC位置下白子,B[]黑棋略过,HA[0]让0子,KM[3.5]贴目3.5,RU[Japanese]日本规则,SZ[9]9×9棋盘,RE[W+9.5]白胜9.5目 136
ZeroPadding2D 用填0层人为增大卷积层尺寸(如19×19增大到23×23),避免卷积层操作过小图像 149
ModelCheckpoint 模型检查点。在每一个训练迭代周期结束之后,存储模型快照,以便从失败中恢复。 150

深度学习与围棋 名词笔记(一)相关推荐

  1. Yann Lecun纽约大学《深度学习》2020课程笔记中文版,干货满满!

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! [导读]Yann Lecun在纽约大学开设的2020春季<深度学习>课 ...

  2. 深度学习英文缩写_机器学习、深度学习……人工智能那些名词你知道几个?

    原标题:机器学习.深度学习--人工智能那些名词你知道几个? 这一次,小KE带你了解几个火爆的"人工智能"名词儿,这样在撸串炸鸡啤酒时,可以跟小伙伴吹嘘吹嘘,提高提高自己的人格档次. ...

  3. 《Python深度学习》第一章笔记

    <Python深度学习>第一章笔记 1.1人工智能.机器学习.深度学习 人工智能 机器学习 深度学习 深度学习的工作原理 1.2深度学习之前:机器学习简史 概率建模 早期神经网络 核方法 ...

  4. 深度学习与围棋:为AlphaGo训练深度神经网络

    2016年,DeepMind的围棋机器人AlphaGo在与李世石的第二局对决中第37手落子的瞬间,整个围棋界都震惊了.评棋人Michael Redmond,一位有着近千场顶级比赛经验的职业棋手,在直播 ...

  5. 【CS224n】2斯坦福大学深度学习自然语言处理课程笔记——词向量、词义和神经分类器

    Natural Language Processing with Deep Learning 课程笔记2 1. 词向量和word2vec 2. 优化基础知识 3. 我们能否通过计数更有效地抓住词义的本 ...

  6. AI公开课:19.03.21钱诚/雷鸣等教授或专家《寒武纪-深度学习处理器》课堂笔记以及个人感悟

    AI公开课:19.03.21钱诚/雷鸣/汪玉/侯晓林等教授或专家<寒武纪-深度学习处理器>课堂笔记以及个人感悟 导读:如果大家去创业的话,一定要看清未来的大趋势,看对赛道,当然,还有人才. ...

  7. 深度学习与围棋:神经网络入门

    本文主要内容 介绍人工神经网络的基础知识. 指导神经网络学习如何识别手写数字. 组合多个层来创建神经网络. 理解神经网络从数据中学习的原理. 从零开始实现一个简单的神经网络. 本章介绍人工神经网络(A ...

  8. 独家干货 | 吴恩达深度学习专项课程精炼笔记!

    点击上方"AI有道",选择"星标"公众号 重磅干货,第一时间送达 吴恩达在他自己创办的在线教育平台 Coursera 上线了他的人工智能专项课程(Deep Le ...

  9. 收藏 | Yann Lecun纽约大学《深度学习》2020课程笔记中文版

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作分享,不代表本公众号立场,侵权联系删除 转载于:专知 AI博士笔记系列推荐 周志华<机器学习>手推笔 ...

最新文章

  1. POI实现Excel导入Cannot get a text value from a numeric cell
  2. vivado开发编译流程
  3. 【Linux】一步一步学Linux——test命令(252)
  4. 10kv电压互感器型号_电气行业需要知道的10KV电压互感器基本技术参数
  5. qtablewidget设置html,Qt 设置QTableWidget,QListWidget,QTreeWidget鼠标右键
  6. C# 程序实现功能目录
  7. xgp游戏列表_Steam疯狂周三游戏推荐:动物百科全书
  8. 经典算法题每日演练——第七题 KMP算法
  9. string.split方法 保留分隔符_白月黑说什么是对象的方法?以及string类型数据对象的常见方法解析...
  10. Python 双y轴绘制
  11. 《Serverless 架构》序言
  12. ZWrite 和ZTest
  13. 使用TypoDetect检测相似域名
  14. 外卖返利系统公众号外卖cps返利小程序淘宝客小程序侠客外卖系统
  15. MFC框架学习:《深入浅出MFC》阅读笔记
  16. 盗墓笔记—阿里旺旺ActiveX控件imageMan.dll栈溢出漏洞研究
  17. 2021会员运营痛点分析
  18. 16种常用的数据分析方法-列联分析
  19. vue3使用dayjs
  20. Java(实验三)类与对象-定义并实现一个长方体类(Cube),包含长(length)、宽(width)与高(height)等三个属性

热门文章

  1. LCP插件linux-cp-xc-ip6节点
  2. Git mac版 下载安装过程以及解决所遇到的问题
  3. 原来不一样的2007是这样的不一样!
  4. 北京针对CFA持证人有什么优惠条件
  5. 局域网找到计算机但无法访问磁盘,win7访问局域网共享文件出现 0x80070035错误的解决办法...
  6. 【Latex】在标题下插入头图 teaser
  7. 低版本Excel文件在高版本excel软件打开时乱码的解决
  8. 内部转岗,是机会还是陷阱?
  9. 环网冗余式CAN/光纤转换器的CAN光端机在消防火灾联网报警系统中的应用
  10. 小程序的wx:if和wx:for的学习使用