源 | 机器之心

大家好,这里是 NewBeeNLP。关于 Transformer ,这是一篇很好的学习指南,可以帮助你熟悉最流行的 Transformer 模型。

自 2017 年提出至今,Transformer 模型已经在自然语言处理、计算机视觉等其他领域展现了前所未有的实力,并引发了 ChatGPT 这样的技术突破,人们也提出了各种各样基于原始模型的变体。

由于学界和业界不断提出基于 Transformer 注意力机制的新模型,我们有时很难对这一方向进行归纳总结。近日,领英 AI 产品战略负责人 Xavier Amatriain 的一篇综述性文章或许可以帮助我们解决这一问题。

在过去的几年里,陆续出现了数十个来自 Transformer 家族模型,所有这些都有有趣且易懂的名字。本文的目标是为最流行的 Transformer 模型提供一个比较全面但简单的目录和分类,此外本文还介绍了 Transformer 模型中最重要的方面和创新。

论文《Transformer models: an introduction and catalog》:

论文链接:

https://arxiv.org/abs/2302.07730

GitHub:https://github.com/xamat/TransformerCatalog

简介:什么是 Transformer

Transformer 是一类由一些架构特征定义的深度学习模型。首次出现在谷歌研究人员于 2017 年发表的著名论文《Attention is All you Need》中(这篇论文在短短 5 年就被引用了 3.8 万余次)以及相关的博客文章中。Transformer 架构是编码器 - 解码器模型 [2] 的一个特定实例,该模型在 2 - 3 年前开始流行起来。然而,在此之前,注意力只是这些模型使用的机制之一,这些模型主要基于 LSTM(长短期记忆)[3] 和其他 RNN(循环神经网络)[4] 变体。Transformers 论文的关键见解是,正如标题所暗示的那样,注意力可以被用作推导输入和输出之间依赖关系的唯一机制。讨论 Transformer 体系结构的所有细节超出了本博客的范围。为此,本文建议参考上面的原论文或 Transformers 的帖子,内容都十分精彩。话虽如此,本文将简要叙述最重要的方面,下面的目录中也会提到它们。本文将先从原始论文中的基本架构图开始,继而展开叙述相关内容。

编码器 / 解码器架构

通用编码器 / 解码器体系架构 (参见图 1) 由两个模型组成。编码器接受输入并将其编码为固定长度的向量。解码器获取该向量并将其解码为输出序列。编码器和解码器联合训练以最小化条件对数似然。一旦训练,编码器 / 解码器可以生成给定输入序列的输出,或者可以对输入 / 输出序列进行评分。在最初的 Transformer 架构中,编码器和解码器都有 6 个相同的层。在这 6 层中的每一层编码器都有两个子层:一个多头注意层和一个简单的前馈网络。每个子层都有一个残差连接和一个层归一化。编码器的输出大小是 512。解码器添加了第三个子层,这是编码器输出上的另一个多头注意层。此外,解码器中的另一个多头层被掩码。

图 1:Transformer 体系架构

图 2:注意力机制

注意力

从上面的描述可以清楚地看出,模型体系架构唯一的特别元素是多头注意力,但是,正如上面所描述的,这正是模型的全部力量所在。那么,注意力到底是什么?注意力函数是查询和一组键值对到输出之间的映射。输出是按值的加权和计算的,其中分配给每个值的权重是通过查询与相应键的兼容性函数计算的。Transformers 使用多头注意力,这是一个被称为缩放点积注意力的特定注意力函数的并行计算。关于注意力机制如何工作的更多细节,本文将再次参考《The Illustrated Transformer》的帖文,将在图 2 中再现原始论文中的图表,以便了解主要思想。与循环网络和卷积网络相比,注意力层有几个优势,最重要的两个是它们较低的计算复杂性和较高的连通性,特别是对于学习序列中的长期依赖关系非常有用。

Transformer 的用途是什么,为什么它们如此受欢迎

最初的 Transformer 是为语言翻译而设计的,特别是从英语到德语。但是,通过原先的研究论文就可以看出,该架构可以很好地推广到其他语言任务。这一特别的趋势很快就引起了研究界的注意。在接下来的几个月里,大多数与语言相关的 ML 任务排行榜完全被某个版本的 Transformer 架构所主导(比方说,著名的 SQUAD 排行榜,其中所有位于顶部的模型都是 Transformer 的集合)。Transformer 能够如此迅速地占据大多数 NLP 排行榜的关键原因之一是它们能够快速适应其他任务,也就是迁移学习。预训练的 Transformer 模型可以非常容易和快速地适应它们没有经过训练的任务,这具有巨大的优势。作为 ML 从业者,你不再需要在庞大的数据集上训练大型模型。你所需要做的就是在你的任务中重新使用预训练的模型,也许只是用一个小得多的数据集稍微调整它。一种用于使预训练的模型适应不同任务的特定技术被称为微调。

事实证明,Transformer 适应其他任务的能力是如此之强,以至于尽管它们最初是为与语言相关的任务而开发的,但它们很快就被用于其他任务,从视觉或音频和音乐应用程序,一直到下棋或做数学。

当然,如果不是因为有无数的工具,任何人都可以轻松地编写几行代码,那么所有这些应用程序都不可能实现。Transformer 不仅能被迅速整合到主要的人工智能框架(即 Pytorch8 和 TF9)中,甚至基于此创建起整个公司。Huggingface 是一家迄今为止已经筹集了 6000 多万美元的初创公司,几乎完全是围绕着将开源 Transformer 库商业化的想法建立的。

最后,有必要谈谈 Transformer 普及初期 GPT-3 对其的影响。GPT-3 是 OpenAI 在 2020 年 5 月推出的 Transformer 模型,是他们早期 GPT 和 GPT-2 的后续产品。该公司通过在预印本中介绍该模型而引起了很大的轰动,他们声称该模型非常强大,以至于他们无法向世界发布它。从那以后,该模型不仅发布了,而且还通过 OpenAI 和微软之间的大规模合作实现了商业化。GPT-3 支持 300 多个不同的应用程序,是 OpenAI 商业战略的基础 (对于一家已经获得超过 10 亿美元融资的公司来说,这是很有意义的)。

RLHF

最近,从人类反馈(或偏好)中强化学习(RLHF(也称作 RLHP)已成为人工智能工具包的一个巨大补充。这个概念已经在 2017 年的论文《Deep reinforcement learning from human preferences》中提出。最近,它被应用于 ChatGPT 和类似的对话智能体,如 BlenderBot 或 Sparrow。这个想法很简单:一旦语言模型被预先训练,用户就可以对对话生成不同的响应,并让人类对结果进行排序。人们可以在强化学习环境中使用这些排名(也就是偏好或反馈)来训练奖励(见图 3)。

扩散

扩散模型已经成为图像生成中的新 SOTA,显然将之前的方法如 GANs(生成对抗网络)推到了一边。什么是扩散模型?它们是一类经过变分推理训练的潜变量模型。以这种方式训练的网络实际上是在学习这些图像所代表的潜在空间(参见图 4)。

扩散模型与其他生成模型有关系,如著名的 [生成对抗网络 (GAN)] 16,它们在许多应用中已经被取代,特别是与(去噪)自动编码器。有些作者甚至说扩散模型只是自编码器的一个具体实例。然而,他们也承认,微小的差异确实改变了他们的应用,从 autoconder 的潜在表示到扩散模型的纯粹生成性质。

图 3:带有人类反馈的强化学习。

图 4:概率扩散模型架构摘自《Diffusion Models: A Comprehensive Survey of Methods and Applications》

本文介绍的模型包括:

一起交流

想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)

五年时间,Transformer宇宙发展成了这样,ChatGPT 只是其中之一相关推荐

  1. 上海PHICOMM斐讯短短五年时间市场为何能扩大成这样?

    上海斐讯数据通信技术有限公司(以下简称"PHICOMM斐讯")成立于2008年,短短五年时间,在市场上初显峥嵘,2012年公司销售额突破30亿元,2013年有望达到60亿元.作为一 ...

  2. 《元宇宙发展与治理》课题调研 齐心构建“元宇宙世界”蓝图

    近期,为深入开展中国移动通信联合会元宇宙产业委员会(下称"元宇宙产业委")与清华大学合作的<元宇宙治理与发展>课题研究,元宇宙产业委执行秘书长武艳芳和常务副秘书长张东华 ...

  3. 五年时间完成业务数字化转型,华为如今做得怎么样了?

    摘要:传统企业通过制造先进的机器来提升生产效率,但是未来,如何结构性地提升服务和运营效率,如何用更低的成本获取更好的产品,成了时代性的问题.数字化转型归根结底就是要解决企业的两大问题:成本和效率,并围 ...

  4. 多地政府提及元宇宙发展 | 产业区块链发展周报

    摘要 产业动态: 腾讯发布"元宇宙率"行业评分标准 湖南省数字政府区块链平台及应用示范项目公开招标 中国金融四十人论坛:DeFi具有一定中心化特征存在"共谋"风 ...

  5. 一文详解AIGC:推动元宇宙发展的加速器

    由AI作画应用Midjourney生成的绘画作品<太空歌剧院>在今年9月美国科罗纳州博览会上获得艺术比赛一等奖,吸引了不少人的眼球.今年以来连续好几个AIGC领域的项目获得了不错的融资, ...

  6. 光明日报:依法应对元宇宙发展中的风险挑战

    2021年以来,围绕元宇宙的技术应用和产业投资日益成为社会关注的热点.微软.英伟达.脸书等国外科技企业已经开展布局元宇宙生态相关技术产品.元宇宙话题成为数字经济发展的新热点.数字政务应用的最前沿.元宇 ...

  7. 2020年-2021年元宇宙发展研究报告

    ❑ 导 读 报告分为<理念篇><产业篇><风险篇>. 全文共计958字126图,预计阅读时间15分钟 来源 | 北师大新闻传播学院(转载请注明来源) 编辑 | 陈近 ...

  8. 恭喜,五年时间再造一家赴美上市公司

    恭喜????????????李想,五年时间又做出一家上市公司,这次没有"大名",一个高中毕业生继续书写了中国互联网的传奇,2015年离开汽车之家创办车和家,最开始应该还没想好要造电 ...

  9. 【报告分享】元宇宙发展研究报告2.0-清华大学.pdf(附下载链接)

    省时查报告-专业.及时.全面的行研报告库 省时查方案-专业.及时.全面的营销策划方案库 大家好,我是文文(微信号:sscbg2020),今天给大家分享清华大学新闻与传播学院新媒体研究中心最新发布的报告 ...

最新文章

  1. 洛谷 P4463 [集训队互测 2012] calc(拉格朗日插值优化DP)
  2. 前端学习(1972)vue之电商管理系统电商系统之弹出修改对话框
  3. 经典面试题(36):以下代码将输出的结果是什么?
  4. 【网易游戏面试题】.NET中强引用和弱引用是什么
  5. java1.8win7_JDK 1.8 安装配置教程(win7 64bit )
  6. linux 查看权限命令行,【linux】与 用户、权限 有关的常用命令
  7. GDI+ 学习记录(23): 输出文本
  8. cshop是什么开发语言_mes用什么语言开发?mes开发平台
  9. android报错自动重启,Android Studio常见报错及处理办法
  10. 曹 雷 : 证券基金经营机构如何理解科技是投资而非投入
  11. 【性能测试】JSON工具 对比 fastjson jackson
  12. 工欲善其事,必先利其器——Web开发的10大IDE
  13. 如何重新设置苹果id密码_苹果手机ID密码忘了?别着急,这二种方法轻松帮你搞定!...
  14. TestFlight上架流程
  15. 同步交互与异步交互(简单易懂)
  16. 2天让你从零基础到手握3-5生信热点分文章 线上课程8月7-8日
  17. java坦克加快速度_Java坦克大战 (六) 之增加可玩性
  18. css中 中文字体(font-family)的标准英文名称
  19. 经典象棋残局——太白醉写标准解法
  20. 数据结构期末复习(4.二叉树的遍历)

热门文章

  1. Cisco3560 交换机密码恢复实例
  2. 承德石油高等专科学校计算机怎么样,承德石油高等专科学校有计算机专业吗
  3. 举例说明如何在Go中使用Context | Gopher Daily (2021.09.15) ʕ◔ϖ◔ʔ
  4. js验证真实姓名与身份证号,手机号
  5. 上海北大青鸟教学:学习jsp的步骤
  6. limit与OFFSET
  7. 交代码后各种稀奇古怪的字母
  8. Go后台管理系统 | EasyGoAdmin
  9. 微信聊天记录异常怎么修复?经验分享!微信聊天记录如何进行修复?
  10. Excel文件已损坏无法打开