点击上方,选择星标置顶,每天给你送干货

阅读大概需要6分钟

跟随小博主,每天进步一丢丢

导读

在过去的两年中,NLP在各种不同任务和应用上的进展十分迅速。这些进展是由于构建NLP系统的经典范式发生了转变带来的:很长一段时间以来,研究人员都使用预训练的词嵌入(如word2vec或GloVe)来初始化神经网络,然后使用一个特定于任务的架构,该架构使用单个数据集以监督方法训练。

最近,一些研究证明,我们可以利用非监督(或自监督)信号,如语言建模,在web规模的数据集上学习分层上下文表示,并将这种预训练转移到下游任务(迁移学习)。令人兴奋的是,这种转变带来了下游应用领域的重大进展,从问题回答到通过句法分析进行自然语言推理……

“我可以读哪些论文来跟上现代NLP的最新趋势?”

几周前,我的一位朋友决定入坑NLP。他已经有机器学习和深度学习的背景,所以他真诚地问我:“我可以阅读哪些论文来跟上现代NLP的最新趋势?”

这是一个非常好的问题,尤其是考虑到NLP会议(以及普遍的ML会议)收到的论文投稿呈指数级增长时:NAACL 2019收到投稿比2018增加了80%, ACL 2019收到的投稿比2018年增加了90%……

因此,我为他整理了这份论文列表和资源清单,并与大家分享。

免责声明:本列表并非详尽无遗,也无法涵盖NLP中的所有主题(例如,没有涵盖语义解析、对抗性学习、NLP强化学习等)。所选择的论文主要是过去几年/几个月最具影响力的工作。

一般而言,开始进入一个新领域的好方法是阅读介绍性或总结性的博客(比如这篇),可以让你在花时间阅读论文之前快速了解背景。

一种新的范式:迁移学习(Transfer Learning)

以下的参考文献涵盖了NLP迁移学习的基本思想:

Deep contextualized word representations (NAACL 2018)

Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer

Universal Language Model Fine-tuning for Text Classification (ACL 2018)

Jeremy Howard, Sebastian Ruder

Improving Language Understanding by Generative Pre-Training

Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever

Language Models are Unsupervised Multitask Learners

Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (NAACL 2019)
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova

Cloze-driven Pretraining of Self-attention Networks (arXiv 2019)
Alexei Baevski, Sergey Edunov, Yinhan Liu, Luke Zettlemoyer, Michael Auli

Unified Language Model Pre-training for Natural Language Understanding and Generation (arXiv 2019)
Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu, Yu Wang, Jianfeng Gao, Ming Zhou, Hsiao-Wuen Hon

MASS: Masked Sequence to Sequence Pre-training for Language Generation (ICML 2019)
Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, Tie-Yan Liu

Transformer结构已经成为序列建模任务流行结构。Source: Attention is all you need

表示学习(Representation Learning)

What you can cram into a single vector: Probing sentence embeddings for linguistic properties (ACL 2018)
Alexis Conneau, German Kruszewski, Guillaume Lample, Loïc Barrault, Marco Baroni

No Training Required: Exploring Random Encoders for Sentence Classification(ICLR 2019)
John Wieting, Douwe Kiela

GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding (ICLR 2019)
Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, Samuel R. Bowman

SuperGLUE: A Stickier Benchmark for General-Purpose Language Understanding Systems (arXiv 2019)
Alex Wang, Yada Pruksachatkun, Nikita Nangia, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, Samuel R. Bowman

Linguistic Knowledge and Transferability of Contextual Representations (NAACL 2019)
Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith

To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks(arXiv 2019)
Matthew Peters, Sebastian Ruder, Noah A. Smith

神经对话(Neural Dialogue)

A Neural Conversational Model (ICML Deep Learning Workshop 2015)
Oriol Vinyals, Quoc Le

A Persona-Based Neural Conversation Model (ACL 2016)
Jiwei Li, Michel Galley, Chris Brockett, Georgios P. Spithourakis, Jianfeng Gao, Bill Dolan

A Simple, Fast Diverse Decoding Algorithm for Neural Generation (arXiv 2017)
Jiwei Li, Will Monroe, Dan Jurafsky

Neural Approaches to Conversational AI (arXiv 2018)
Jianfeng Gao, Michel Galley, Lihong Li

TransferTransfo: A Transfer Learning Approach for Neural Network Based Conversational Agents (NeurIPS 2018 CAI Workshop)
Thomas Wolf, Victor Sanh, Julien Chaumond, Clement Delangue

Wizard of Wikipedia: Knowledge-Powered Conversational agents (ICLR 2019)
Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, Jason Weston

Learning to Speak and Act in a Fantasy Text Adventure Game (arXiv 2019)
Jack Urbanek, Angela Fan, Siddharth Karamcheti, Saachi Jain, Samuel Humeau, Emily Dinan, Tim Rocktäschel, Douwe Kiela, Arthur Szlam, Jason Weston

其他

Pointer Networks (NIPS 2015)
Oriol Vinyals, Meire Fortunato, Navdeep Jaitly

End-To-End Memory Networks (NIPS 2015)
Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus

Get To The Point: Summarization with Pointer-Generator Networks (ACL 2017)
Abigail See, Peter J. Liu, Christopher D. Manning

Supervised Learning of Universal Sentence Representations from Natural Language Inference Data (EMNLP 2017)
Alexis Conneau, Douwe Kiela, Holger Schwenk, Loic Barrault, Antoine Bordes

End-to-end Neural Coreference Resolution (EMNLP 2017)
Kenton Lee, Luheng He, Mike Lewis, Luke Zettlemoyer

StarSpace: Embed All The Things! (AAAI 2018)
Ledell Wu, Adam Fisch, Sumit Chopra, Keith Adams, Antoine Bordes, Jason Weston

The Natural Language Decathlon: Multitask Learning as Question Answering(arXiv 2018)
Bryan McCann, Nitish Shirish Keskar, Caiming Xiong, Richard Socher

Character-Level Language Modeling with Deeper Self-Attention (arXiv 2018)
Rami Al-Rfou, Dokook Choe, Noah Constant, Mandy Guo, Llion Jones

Linguistically-Informed Self-Attention for Semantic Role Labeling (EMNLP 2018)
Emma Strubell, Patrick Verga, Daniel Andor, David Weiss, Andrew McCallum

Phrase-Based & Neural Unsupervised Machine Translation (EMNLP 2018)
Guillaume Lample, Myle Ott, Alexis Conneau, Ludovic Denoyer, Marc’Aurelio Ranzato

Learning General Purpose Distributed Sentence Representations via Large Scale Multi-task Learning (ICLR 2018)
Sandeep Subramanian, Adam Trischler, Yoshua Bengio, Christopher J Pal

Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context (arXiv 2019)
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov

Universal Transformers (ICLR 2019)
Mostafa Dehghani, Stephan Gouws, Oriol Vinyals, Jakob Uszkoreit, Łukasz Kaiser

An Embarrassingly Simple Approach for Transfer Learning from Pretrained Language Models (NAACL 2019)
Alexandra Chronopoulou, Christos Baziotis, Alexandros Potamianos

其他年代较远的论文,在选择阅读内容时,通常可以用引用数量作为选择的指标。

我的经验是,你应该阅读那些你觉得有趣、并能让你快乐的文章!

其他资源

有很多很赞的资源可以使用,不一定是论文以下是一些:

书籍:

Speech and Language Processing (3rd ed. draft)
Dan Jurafsky and James H. Martin

Neural Network Methods for Natural Language Processing
Yoav Goldberg

课程资料:

Natural Language Understanding and Computational Semantics

with Katharina Kann and Sam Bowman at NYU

CS224n: Natural Language Processing with Deep Learning

with Chris Manning and Abigail See at Standford

Contextual Word Representations: A Contextual Introduction 

from Noah A. Smith’s teaching material at UW

博客/播客:

Sebastian Ruder’s blog

http://ruder.io/

Jay Alammar’s illustrated blog

http://jalammar.github.io/

NLP Highlights hosted by Matt Gardner and Waleed Ammar

https://podcasts.apple.com/us/podcast/nlp-highlights/id1235937471

其他:

Papers With Code

https://paperswithcode.com/

Twitter ????

arXiv daily newsletter

Survey papers

最后的建议

以上是我们推荐的资源!阅读这些资源中的一部分就已经能够让你对当代NLP的最新趋势有了很好的了解,并能够帮助你构建自己的NLP系统!

最后一个建议,我发现非常重要(有时被忽视)的是,阅读很好,实践更好!通过深入阅读(有时)附带的代码或尝试自己实现其中的一些代码,你可以学到更多。

原文地址:

https://medium.com/huggingface/the-best-and-most-current-of-modern-natural-language-processing-5055f409a1d1

推荐阅读:

一大批历史精彩文章啦

详解Transition-based Dependency parser基于转移的依存句法解析器

干货 | 找工作的经验总结(一)

经验 | 初入NLP领域的一些小建议

学术 | 如何写一篇合格的NLP论文

干货 | 那些高产的学者都是怎样工作的?

是时候研读一波导师的论文--一个简单有效的联合模型

近年来NLP在法律领域的相关研究工作


好文!在看!

干货 | 我可以读哪些论文来跟上现代NLP的最新趋势?相关推荐

  1. 沈向洋、华刚:读科研论文的三个层次、四个阶段与十个问题

    来源:微软学术合作 本文约6000字,建议阅读8分钟. 阅读文章不仅是大家在科研道路上进步的必由之路,也能使我们的心智不断成长,认知模型和思维方式不断完善. 沈向洋博士:如何以正确方式打开一篇科研论文 ...

  2. 关于知识图谱,各路大神最近都在读哪些论文?

    本期内容选编自微信公众号「开放知识图谱」. TheWebConf 2018 ■ 链接 | https://www.paperweekly.site/papers/1956 ■ 解读 | 花云程,东南大 ...

  3. 【转】如何读学术论文

    参考: 经验分享 | 高效读论文的"三遍法" [How to read a paper]如何读论文 怎样阅读论文(台湾彭明辉) 文章目录 1. 速读后的问题记录 1.1 5C 1. ...

  4. 【转】沈向洋、华刚:读科研论文的三个层次、四个阶段与十个问题

    转自知乎,微软亚洲研究院,文章<沈向洋.华刚:读科研论文的三个层次.四个阶段与十个问题> 作者:微软亚洲研究院 链接:https://zhuanlan.zhihu.com/p/163227 ...

  5. 【读点论文】Transformer in Transformer 细化图片结构,递归使用transformer。让图片去拟合自然语言处理的操作。

    Transformer in Transformer Abstract Transformer是一种新的神经架构,它通过注意机制将输入数据编码为强大的特征.基本上,视觉transformer首先将输入 ...

  6. 【转】干货分享|读研读博时,需养成的好习惯

    干货分享|读研读博时,需养成的好习惯 ✔ 保持健康生活 ★ 不要盲目节食!不要吃垃圾食品! (不然就等着脱发显老吧!) ★ 找到自己的规律,有人适合早起 ,有人晚上才思泉涌,你觉得哪个舒服就施行哪个. ...

  7. 读科研论文的三个层次、四个阶段与十个问题

    沈向洋博士:如何以正确方式打开一篇科研论文? 好的研究员要有的特质: open-minded和批判性思考 努力工作 要不断更新知识面,阅读很多东西并交流分享 将科学查询和假设表现出来 读文章的几个阶段 ...

  8. 一分钟读懂论文:《关于临时裁员的七个事实》

    2023年,或许是每个互联网人都最不愿有的经历:裁员. 斯德哥尔摩大学国际经济研究所 (IIES).奥地利经济研究所(WIFO).维也纳经济与商业大学.劳工研究所(IZA).CESifo(经济研究中心 ...

  9. 【转】干货分享|读文献时不知道看什么,也不知道怎么怎么获取的看这里!每读一篇,把这7个问题打印出来放在一边!

    干货分享|读文献时不知道看什么,也不知道怎么怎么获取

  10. 【读论文】点云智能研究进展与趋势(2019)

    [读论文]点云智能研究进展与趋势(2019) 杨必胜 doi: 10.11947/j.AGCS.2019.20190465 文章目录 摘要: 关键词: 点云大数据采集装备 点云场景:从可视化量测到智能 ...

最新文章

  1. 彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM+LIO-SAM)
  2. python拿来干嘛-Python是什么 Python的用处
  3. (C#) 调用执行批处理文件
  4. 设计模式--策略模式--Java实现
  5. 小型ASP服务器|简洁asp服务器
  6. 程序员该面向运维,还是面向开发?
  7. ArrayList(1.8)
  8. Bloom Filter布隆过滤器
  9. 没事学学docker:解决dockerfile出现的Error: Failed to download metadata for repo ‘appstream‘: Cannot prepar
  10. 后端-SpringBoot MySql 连接语句
  11. 大数据BI框架知识点备注
  12. DosBox装Windows98
  13. 未来时速——第一章 用事实的力量管理企业
  14. 【英文演讲】(运动的重要性)Importance of Sports
  15. 基于表情分析的智能语音陪伴机器人
  16. php的seeder是什么,Laravel框架使用Seeder实现自动填充数据功能
  17. wandb 导入环境变量问题
  18. 新的、老的、无所不在的毒素
  19. 当你从美梦中惊醒的时候,你该做什么?
  20. 矩阵矩阵的维度矩阵按某一维度进行拼接

热门文章

  1. insertBefore方法(javascript与jQuery)
  2. ajax切换明星头像!
  3. SELECTION-SCREEN 加按钮
  4. [物理学与PDEs]第2章第4节 激波 4.2 熵条件
  5. Jmeter打开url时提示“请在微信客户端打开链接问题”
  6. java当中的定时器的4种使用方式
  7. mysql主从同步图
  8. perl--CGI编程之测试环境
  9. Python拷贝(深拷贝deepcopy与浅拷贝copy)
  10. ECharts(Enterprise Charts 商业产品图表库)初识