在NLP中,词向量是最基础的一部分,所谓词向量就是词在空间的一个映射向量表示。实现词向量的方式有word2vec, BERT,K-BERT等,还有一部分是用CNN实现.

  1. word2vec
    word2vec有两种不同的词向量生成模式,一种是CBOW(character box of word)另一种是Skip-gram模型,CBOW是利用前后词判断当前词,Skip是利用当前词判断前后词。
    CBOW可以理解为,输入的www,求其前后相关的最大概率,即P(w)=P(Context(w)∣w)P(w)=P(Context(w)|w)P(w)=P(Context(w)w);其模型结构如图1所示(这个图以后再补,毕竟是大论文中的)。Skip可以理解为,输入www前后的词,预测能退出www的最大概率,即P(w)=P(w∣Context(w))P(w) = P(w|Context(w))P(w)=P(wContext(w))
  2. BERT、ALBERT和XLNERT等BERT变形
    BERT的词向量编码由三部分组成,分别是token embedding、segment embedding和position embedding组成,其中token代表当前词的向量,segment用来对句子进行划分,分为[A]or[B], position为位置信息,有了这个三个向量,将其进行相加,便得到了BERT的embedding。
    在BERT的embedding中,word-level 和sentence-level使用了相同的embedding space,因此表现出来的性质在空间上是一致的,这也限制了bert-embedding中的性能;
  3. K-BERT
    K-BERT是在BERT的基础上融入了知识图谱,由此把句子原来的结构填充了起来,导致出现了很多新的内容,但不可避免的这些新的内容会与原来句子中的内容有所冲突,尤其是在position上面。因此在K-BERT中使用了soft-position作为位置嵌入,将原来的position进行保留,将新加入的内容使用soft-postion进行保存,由此解决了相同词不同空间位置的问题,同时也解决了BERT空间编码不一致的问题。在计算self-attenrion的时候,使用一MMM seeingmartixseeing martixseeingmartix将soft-position和position进行了区分,避免了无关词得到的注意力分数相关。
  4. CNN
    CNN在计算机视觉方面用的比较多,在文本向量中,先要构建一个MatrixMatrixMatrix,然后用一个卷积核kernelkernelkernel在当中移动,获取到featuremapfeature mapfeaturemap,后面再使用激活函数做非线性处理,最后使用MaxpoolingMaxpoolingMaxpooling层进行最大特征获取。

总结一下word embedding相关推荐

  1. word2vec代码_TensorFlow2.0 代码实战专栏(四):Word2Vec (Word Embedding)

    作者 |  Aymeric Damien编辑 | 奇予纪出品 | 磐创AI团队 Word2Vec (Word Embedding) 使用TensorFlow 2.0实现Word2Vec算法计算单词的向 ...

  2. Word Embedding News|词嵌入新鲜事:六月刊:GPT-3来了

    这里是 WEN(Word Embedding News)|词嵌入新鲜事. 作为起步,它将基于 Sebastian Ruder NLP News 的每月筛选,聚焦词嵌入领域.对涉及内容在本人阅读后的基础 ...

  3. Word Embedding List|ACL 2020 词嵌入长文汇总及分类

    ACL 2020 于 5 月 17 日放榜啦,在此祝贺.羡慕每一位论文被接收的朋友.以下汇总并尝试按主题分类了 37 篇与 word embedding 有关的长文,让我们一起看看今年词嵌入的研究又有 ...

  4. Word Embedding News | 词嵌入新鲜事:COVID-19特刊

    这里是 WEN(Word Embedding News)|词嵌入新鲜事. 作为起步,它将基于 Sebastian Ruder NLP News 的每月筛选,聚焦词嵌入领域.对涉及内容在个人阅读后的基础 ...

  5. 06_1.Pytorch中如何表示字符串、word embedding、One - hot、Embedding(Word2vec、BERT、Glove)【学习总结】

    1.6.1.如何表示字符串 1.6.1.1.word embedding 1.6.1.1.1.文本表示(Representation) 1.6.1.1.2.独热编码 | one-hot represe ...

  6. 文本的表示-词嵌入(word embedding)

    文本的理解 文本是常用的序列化数据类型之一.文本数据可以看作是一个字符序列或词的序列.对大多数问题,我们都将文本看作词序列. 深度学习序列模型(如RNN及其变体)能够较好的对序列化数据建模. 深度学习 ...

  7. 【李宏毅机器学习】Unsupervised Learning - Word Embedding 无监督学习 - 词嵌入(p22) 学习笔记

    文章目录 Unsupervised Learning Word Embedding 用一个vector来表示一个word的几种方法 1-of-N Encoding Word Class Word Em ...

  8. 《How to Generate a Good Word Embedding?》导读(转)

    http://licstar.net/archives/620 <How to Generate a Good Word Embedding?>导读 Posted on 2015 年 7 ...

  9. 【李宏毅2020 ML/DL】P22 Unsupervised Learning - Word Embedding

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的.自己不知道的东西. 已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-note ...

  10. 关于词嵌入(Word Embedding)的一些总结

    看了课程半天没搞懂词嵌入是啥,梳理一下相关知识.参考: https://www.jianshu.com/p/2fbd0dde8804 https://blog.csdn.net/m0_37565948 ...

最新文章

  1. On/Off FlipSwitch 按钮
  2. python如何注释掉一段代码_爬取出来的网页代码都被注释掉怎么解决?
  3. Spring boot 整合dynamic实现多数据源
  4. Aspx页面javascript的几个trick
  5. 如何用Colab运行XGBoost模型
  6. 抖音店播 就是我们说的商家自播品牌自播
  7. 页面的加载与渲染顺序
  8. crbug/1173575, non-JS module files deprecated.
  9. 锐起无盘服务器设置教程,“锐起无盘XP”教程安装调试教程
  10. 天正服务器修改,天正修改服务器地址
  11. DiskGenius分区助手,5.1.2.766绿色单文件版更新上传
  12. pm2部署node项目
  13. 笔记本dns服务器怎么修改,笔记本电脑DNS怎么设置
  14. 软件工程实践 Blog11
  15. rails网站分享到朋友圈功能是怎么实现的
  16. 20175208 实验三《敏捷开发与XP实践》_实验报告
  17. 唯一ID生成算法剖析
  18. 【机器学习基础】Scipy(科学计算库) 手把手手把手
  19. LVS负载均衡DR模式安装和配置过程详解
  20. [转]金属加工工艺基础知识

热门文章

  1. 宝塔实测搭建学法减分助手小程序系统源码
  2. 下楼问题(来源:学堂在线 程序设计基础)
  3. Cefsharp打开新web页面时就在原来的页面打开
  4. 西门子s7-200和s7-300的区别?
  5. 用二维数组打印正方形
  6. navicat mysql 建表语句_Navicat for MySQL怎么/如何创建数据表?Navicat for MySQL创建数据表教程_斗蟹游戏网...
  7. linux hive根据分区删除数据的两种方式
  8. TPOT自动机器学习参数详解
  9. mysql值比较函数_mysql 比较函数浅用
  10. LE Audio introduction