总结一下word embedding
在NLP中,词向量是最基础的一部分,所谓词向量就是词在空间的一个映射向量表示。实现词向量的方式有word2vec, BERT,K-BERT等,还有一部分是用CNN实现.
- word2vec
word2vec有两种不同的词向量生成模式,一种是CBOW(character box of word)另一种是Skip-gram模型,CBOW是利用前后词判断当前词,Skip是利用当前词判断前后词。
CBOW可以理解为,输入的www,求其前后相关的最大概率,即P(w)=P(Context(w)∣w)P(w)=P(Context(w)|w)P(w)=P(Context(w)∣w);其模型结构如图1所示(这个图以后再补,毕竟是大论文中的)。Skip可以理解为,输入www前后的词,预测能退出www的最大概率,即P(w)=P(w∣Context(w))P(w) = P(w|Context(w))P(w)=P(w∣Context(w))。 - BERT、ALBERT和XLNERT等BERT变形
BERT的词向量编码由三部分组成,分别是token embedding、segment embedding和position embedding组成,其中token代表当前词的向量,segment用来对句子进行划分,分为[A]or[B], position为位置信息,有了这个三个向量,将其进行相加,便得到了BERT的embedding。
在BERT的embedding中,word-level 和sentence-level使用了相同的embedding space,因此表现出来的性质在空间上是一致的,这也限制了bert-embedding中的性能; - K-BERT
K-BERT是在BERT的基础上融入了知识图谱,由此把句子原来的结构填充了起来,导致出现了很多新的内容,但不可避免的这些新的内容会与原来句子中的内容有所冲突,尤其是在position上面。因此在K-BERT中使用了soft-position作为位置嵌入,将原来的position进行保留,将新加入的内容使用soft-postion进行保存,由此解决了相同词不同空间位置的问题,同时也解决了BERT空间编码不一致的问题。在计算self-attenrion的时候,使用一MMM seeingmartixseeing martixseeingmartix将soft-position和position进行了区分,避免了无关词得到的注意力分数相关。 - CNN
CNN在计算机视觉方面用的比较多,在文本向量中,先要构建一个MatrixMatrixMatrix,然后用一个卷积核kernelkernelkernel在当中移动,获取到featuremapfeature mapfeaturemap,后面再使用激活函数做非线性处理,最后使用MaxpoolingMaxpoolingMaxpooling层进行最大特征获取。
总结一下word embedding相关推荐
- word2vec代码_TensorFlow2.0 代码实战专栏(四):Word2Vec (Word Embedding)
作者 | Aymeric Damien编辑 | 奇予纪出品 | 磐创AI团队 Word2Vec (Word Embedding) 使用TensorFlow 2.0实现Word2Vec算法计算单词的向 ...
- Word Embedding News|词嵌入新鲜事:六月刊:GPT-3来了
这里是 WEN(Word Embedding News)|词嵌入新鲜事. 作为起步,它将基于 Sebastian Ruder NLP News 的每月筛选,聚焦词嵌入领域.对涉及内容在本人阅读后的基础 ...
- Word Embedding List|ACL 2020 词嵌入长文汇总及分类
ACL 2020 于 5 月 17 日放榜啦,在此祝贺.羡慕每一位论文被接收的朋友.以下汇总并尝试按主题分类了 37 篇与 word embedding 有关的长文,让我们一起看看今年词嵌入的研究又有 ...
- Word Embedding News | 词嵌入新鲜事:COVID-19特刊
这里是 WEN(Word Embedding News)|词嵌入新鲜事. 作为起步,它将基于 Sebastian Ruder NLP News 的每月筛选,聚焦词嵌入领域.对涉及内容在个人阅读后的基础 ...
- 06_1.Pytorch中如何表示字符串、word embedding、One - hot、Embedding(Word2vec、BERT、Glove)【学习总结】
1.6.1.如何表示字符串 1.6.1.1.word embedding 1.6.1.1.1.文本表示(Representation) 1.6.1.1.2.独热编码 | one-hot represe ...
- 文本的表示-词嵌入(word embedding)
文本的理解 文本是常用的序列化数据类型之一.文本数据可以看作是一个字符序列或词的序列.对大多数问题,我们都将文本看作词序列. 深度学习序列模型(如RNN及其变体)能够较好的对序列化数据建模. 深度学习 ...
- 【李宏毅机器学习】Unsupervised Learning - Word Embedding 无监督学习 - 词嵌入(p22) 学习笔记
文章目录 Unsupervised Learning Word Embedding 用一个vector来表示一个word的几种方法 1-of-N Encoding Word Class Word Em ...
- 《How to Generate a Good Word Embedding?》导读(转)
http://licstar.net/archives/620 <How to Generate a Good Word Embedding?>导读 Posted on 2015 年 7 ...
- 【李宏毅2020 ML/DL】P22 Unsupervised Learning - Word Embedding
我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的.自己不知道的东西. 已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-note ...
- 关于词嵌入(Word Embedding)的一些总结
看了课程半天没搞懂词嵌入是啥,梳理一下相关知识.参考: https://www.jianshu.com/p/2fbd0dde8804 https://blog.csdn.net/m0_37565948 ...
最新文章
- On/Off FlipSwitch 按钮
- python如何注释掉一段代码_爬取出来的网页代码都被注释掉怎么解决?
- Spring boot 整合dynamic实现多数据源
- Aspx页面javascript的几个trick
- 如何用Colab运行XGBoost模型
- 抖音店播 就是我们说的商家自播品牌自播
- 页面的加载与渲染顺序
- crbug/1173575, non-JS module files deprecated.
- 锐起无盘服务器设置教程,“锐起无盘XP”教程安装调试教程
- 天正服务器修改,天正修改服务器地址
- DiskGenius分区助手,5.1.2.766绿色单文件版更新上传
- pm2部署node项目
- 笔记本dns服务器怎么修改,笔记本电脑DNS怎么设置
- 软件工程实践 Blog11
- rails网站分享到朋友圈功能是怎么实现的
- 20175208 实验三《敏捷开发与XP实践》_实验报告
- 唯一ID生成算法剖析
- 【机器学习基础】Scipy(科学计算库) 手把手手把手
- LVS负载均衡DR模式安装和配置过程详解
- [转]金属加工工艺基础知识
热门文章
- 宝塔实测搭建学法减分助手小程序系统源码
- 下楼问题(来源:学堂在线 程序设计基础)
- Cefsharp打开新web页面时就在原来的页面打开
- 西门子s7-200和s7-300的区别?
- 用二维数组打印正方形
- navicat mysql 建表语句_Navicat for MySQL怎么/如何创建数据表?Navicat for MySQL创建数据表教程_斗蟹游戏网...
- linux hive根据分区删除数据的两种方式
- TPOT自动机器学习参数详解
- mysql值比较函数_mysql 比较函数浅用
- LE Audio introduction