如何使用bert做word embedding
调研目的:如何使用第三方库快速对数据进行预训练,得到embedding
知乎一: 请问如何用nlp预训练模型做word embedding ,如bert怎么提取出embedding?
作者天生smile
超出我的理解能力,解释了源码。项目太复杂:实体识别NER、金融图谱塔建、seq2seq。但bert的没有代码。
作者风吹草地
pytorch-pretrained-bert简单使用,没有训练,直接输入一句话,得到这句话的embedding。
作者iterate7
bert进行embedding。BertModel.from_pretrained也是拿训练好的
作者captainqxy
使用transformers从头训练Bert。pytorch版
知乎二: 为什么 Bert 的三个 Embedding 可以进行相加?
调研结果:
我的目的是为知识追踪的Question进行预训练,得到Question的embedding,充分表达Question的语义。我的训练集像NLP一样,一句句话。因为我的词不是中文,没有已经训练好的参数。只能从头开始训练。而且训练中文的bert模型都是几十层的,我这个小型数据集是不适合的。结果:手写实现一层Transformer的encoder。
理解了Transformer的话,其实就那几个部分。不必使用人家的第三方函数库。
不过走NLP方向,肯定也要熟悉怎么使用第三方库。
TensorFlow的话可以使用bert4keras苏剑林大神的,他还有自己的qq群
pytorch的话,就上面参考资料。
实验结果
知识追踪的语料,虽然是序列是question id,就好比人说的每句话,我们从序列中,希望的到question与Question之间的某些关系,相似的question的embedding距离较近。结果表明,训练的loss一直不降,维持在5~7左右。而且训练好的embedding还没skip-gram的好。经分析和推断
(1)question序列中,较远的题目没有很强的联系。
(2)question序列中,没有位置关系,因为他是从无向图graph中取样的。无向图取样比较随意。Q1-C1-Q2-C1-Q3-C1-Q2(元路径Q-C-Q的局限性)
(3)question之间的联系并没有中文中“我”跟“爱”的联系强。skip-gram就只用判断2个question是否相似。skip-gram有负样本,不用计算softmax。
(4)bert是预测mask掉的词,gpt是预测下一个词,哪个形式好呢?
如何使用bert做word embedding相关推荐
- 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
本文可以任意转载,转载时请标明作者和出处. 张俊林 2018-11-11 (如果图片浏览有问题可以转至:知乎版本) Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高 ...
- 【深度学习】从Word Embedding到Bert模型
Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得.那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角 ...
- 从Word Embedding到Bert模型:自然语言处理中的预训练技术发展史
转:https://zhuanlan.zhihu.com/p/49271699 作者:张俊林 专栏:深度学习前沿笔记 目录: 1.图像领域的预训练 2.Word Embedding考古史 3.从Wor ...
- 【发展史】自然语言处理中的预训练技术发展史—Word Embedding到Bert模型
目录 自然语言处理中的预训练技术发展史-Word Embedding到Bert模型 1 图像领域的预训练 2 Word Embedding考古史 3 从Word Embedding到ELMO 4 从W ...
- 从Word Embedding到Bert模型---NLP中预训练发展史
本文转自张俊林老师,希望加深记忆及理解. 本文的主题是自然语言处理中的预训练过程,会大致说下NLP中的预训练技术是一步一步如何发展到Bert模型的,从中可以很自然地看到Bert的思路是如何逐渐形成的, ...
- 【李宏毅机器学习】Unsupervised Learning - Word Embedding 无监督学习 - 词嵌入(p22) 学习笔记
文章目录 Unsupervised Learning Word Embedding 用一个vector来表示一个word的几种方法 1-of-N Encoding Word Class Word Em ...
- RNN模型与NLP应用笔记(2):文本处理与词嵌入详解及完整代码实现(Word Embedding)
一.写在前面 紧接着上一节,现在来讲文本处理的常见方式. 本文大部分内容参考了王树森老师的视频内容,再次感谢王树森老师和李沐老师的讲解视频. 目录 一.写在前面 二.引入 三.文本处理基本步骤详解 四 ...
- Word Embedding 学习笔记
Word Embedding 学习笔记--GloVe 与 word2vec 完成日期:2019.02.25 文章目录 Word Embedding 学习笔记--GloVe 与 word2vec 一. ...
- 06_1.Pytorch中如何表示字符串、word embedding、One - hot、Embedding(Word2vec、BERT、Glove)【学习总结】
1.6.1.如何表示字符串 1.6.1.1.word embedding 1.6.1.1.1.文本表示(Representation) 1.6.1.1.2.独热编码 | one-hot represe ...
最新文章
- 大话卷积神经网络CNN,小白也能看懂的深度学习算法教程,全程干货建议收藏!...
- iMeta期刊12名编委入选科睿唯安2021年度高被引学者
- 如何编写更好的SQL查询:终极指南-第二部分
- 迭代3:UC1,UC2的2.1 业务建模 2.2 UC2用例模型 2.3 UC2补充性规格说明
- “ yield”关键字有什么作用?
- Ubuntu18 搭建apache2+php5.6+mysql服务器
- 2019年暑假慈溪集训(更新ing)
- python flag 参数_flag_flagpython_js开关flag - 云+社区 - 腾讯云
- kettle使用_ETL工具(kettle)使用系列(二)
- Windows登录密码轻松破解
- android适配各种分辨率的问题
- windows库的创建和使用:静态库+动态库
- web前端开发流程图,118页Vue面试题总结,完整PDF
- 漂亮有创意的思维导图模板下载教程,教你思维导图怎么画
- JavaScript 实现全选,分组全选,列表折叠。
- 【论文解读】Stacked Hourglass Networks
- html文件做屏保win10,win10系统把屏保设置为桌面壁纸的处理方法
- Mac系统升级后,无法安装Cornerstone解决办法
- 八、量子纠缠状态的纯化协议及其应用
- 安装libjpeg库后提示libjpeg.so.8不存在(linux环境)