最近读的几篇paper都是用seq2seq的思路来解决问题,有点读厌烦了,今天换个口味。分享一篇extractive式的paper,AttSum: Joint Learning of Focusing and Summarization with Neural Attention,AttSum是本文所阐述的摘要系统的名称。

本文用了CNN+word embedding来表示sentence,然后将sentence vector加权求和作为document vector,通过将sentence和document映射到同一空间中,更容易在语义层上计算相似度。CNN之前多用于CV领域,后来在NLP中也应用了起来,尤其是各种各样的sentence classification任务中。在这个层面上将deep learning应用到了extractive summarization中,与之前seq2seq的paper有着本质的区别。整体来看,本文并没有太出众的创新点和突出的结果,反倒是提到了Attention机制,但并没有从模型体现地很充分,所以有炒概念的嫌疑。将文本中表示文本的方法应用在seq2seq的encoder部分,是本文的一种扩展和未来要做的工作。

Abstract

基于查询的抽取式文本摘要系统通常需要解决好相关性和显著性两个方面的任务,但一般的系统通常将两者分开考虑。而本文将两个任务合并考虑。本文的算法可以自动学习sentence和document cluster的embedding,并且当查询给定之后,可以应用注意力机制来模拟人类阅读行为。算法的有效性在DUC基于查询的文本摘要任务中进行了验证,得到了有竞争力的结果。

本文是将最近比较火的注意力模型应用到了extractive文摘系统中,同时也用了sentence embedding来解决语义层面的相关性问题,并没有像之前的文章在改动seq2seq+attention的细节上做文章,而是切换到了另外一种思路上。


Introduction

基于查询的文本摘要系统一般应用于多文档摘要任务,既需要考虑摘要中句子的相关性,又要考虑句子的显著性,相关性反应了文档的主题思想,显著性避免了重复和冗余。很长一段时间,逻辑斯特回归是解决这类问题的热门方法,但是类似的大多数的监督学习方法都是将两个问题分开考虑,通过一些feature对相关性和显著性分开打分排序。但是人在写摘要的时候,往往会将相关性和显著性合并起来考虑。

另外,相关性打分的方法也存在弊端,用类似TF-IDF的指标来打分有时并不能得到非常相似的结果,尽管可能匹配到了核心词,但检索出的结果并不一定可以满足用户的要求。

用深度学习的技术来表示feature,会比用简单的feature去打分排序更加科学,将两个指标融合在一个模型中解决文本摘要问题将会是一个不错的方案。本文提出了一个名叫AttSum的文摘系统,联合了相关性和显著性两个指标。

注意力模型已经成功应用在学习多模态对齐问题中,也可以借鉴到本问题当中。人类总是会将注意力放在他们query的东西上面。

本文在DUC2005-2007基于查询的文摘任务中进行了验证测试,在没有使用任何人为feature的情况下,获得了有竞争力的结果。本文的贡献有两点:

1、应用了注意力机制在基于查询的文摘任务中。

2、提出了一种联合查询相关性和句子显著性的神经网络模型。

相关性的打分问题是搜索引擎的基本问题,传统的方案是用一些简单的feature,比如TF-IDF来打分排序,但经常会得不到满意的结果,原因在于feature太过肤浅,并没有考虑语义层面的东西,换句话说并没有真正理解用户需要查什么。当然,有一段时间推荐系统扮演着搜索引擎助手的角色,当一个用户通过留下一些蛛丝马迹给网站,网站就会给他做一些个性化的推荐来辅助搜索引擎,但并不能从根本上解决这个问题。于是本文用了sentence embedding,document embedding来解决这个问题,就像当初的word embedding 一样,将语义映射到一个空间中,然后计算距离来测量相关性。


Query-Focused Sentence Ranking

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

AttSum系统一共分为三层:

1、CNN Layer,用卷积神经网络将句子和query映射到embedding上。

2、Pooling Layer,用注意力机制配合sentence embeddings构造document cluster embeddings。

3、Ranking Layer,计算sentence和document cluster之间的相似度,然后排序。

CNN Layer

这一层的输入是用word embeddings构造的sentence matrix,然后在该矩阵上用一个卷积filter,之后再应用一个max pooliing获取到features,得到输出。

这个方法非常简单,是一个典型的CNN的应用,需要注意的是filter的宽度和词向量的宽度一致,看起来和n-gram类似,但是用了卷积神经网络来捕捉sentence matrix中的最大特征。将变长的句子都统一映射到同一个空间中,为后续计算相似度提供了极大的方便。

Pooling Layer

这一层用sentence embedding加权求和来得到document cluster embedding。首先计算句子和query的相关性:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

这里的相关性计算和相似度是两回事,其中M矩阵是一个tensor function,可以用来计算sentence embedding和query embedding之间的相互影响,两个相同的句子会得到一个较低的分数。然后加权求和得到document cluster embedding:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

这里,sentence embedding扮演两个角色,既是pooling项,又是pooling权重。一方面,如果一个句子与query高度相关,则权重会很大;另一方面,如果一个句子在文档中是显著的,该句子的embedding也应被表示在其中。

本文强调了attention机制在Rush等人的工作中依赖于手工feature,不是那么自然地模拟人类的注意力,而本文是真正地无干预地在模拟人类的注意力。

感觉这一层的模型中只有M比较神秘一些,但整体来说思路还是非常简单,sentence表示出来了,document用sentence加权求和的方式来表示。只是说权重的计算方法很玄乎,还鄙视了其他人在用attention机制时并不自然。

Ranking Layer

打分排序层同样简单,用了余弦公式来计算sentence和document之间的相似度。在训练的过程中用了pairwise ranking strategy,选择样本的时候,用了ROUGE-2计算了所有句子的score,高分的作为正样本,低分的作为负样本。

根据pairwise ranking的标准,相比于负样本,AttSum应该给正样本打出更高的分数,因此损失函数定义如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

训练方式采用mini-batch SGD。

排序层也没什么特别的地方,用了最简单的余弦公式来计算相似度,通过结对排序的方法,先用ROUGE-2指标将所有的句子进行了打分,高分的句子作为正样本,低分的作为负样本,构造损失函数,让正样本的分数尽可能高,负样本的分数尽可能低。

Sentence Selection

本文在选择句子时采用了一种类似于MMR的简单贪婪算法(MMR在之前的博客中有介绍)。具体过程如下:

1、去掉少于8个词的句子。因为摘要不可能少于8个词。

2、用之前计算好的score对所有的句子进行降序排列。

3、迭代地将排名靠前的且不冗余的句子添加到队列中。这里的冗余定义为该句子相比进入队列的句子有更新的内容。

具体算法流程如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

句子的选择算法几乎就是MMR,也是一种贪心的思路。不同的地方在于对冗余的定义不如MMR,MMR是用当前句子与已经在队列中的句子的相似度作为冗余判断,其实这样更加科学。


Experiments

Dataset

数据集用DUC2005-2007三年的数据,用两年的数据作为训练集,一年的数据作为测试集。

Model Setting

CNN层:50维词向量,用gensim实现,训练过程中不更新词向量,窗口尺寸选择2,即2-gram,和ROUGE-2保持一致,句子向量维度用5-100进行试验,最终用50作为句子向量维度。

Evaluation Metric

评价指标用ROUGE-2。

Baselines

使用了之前成绩不错的MultiMR和SVR系统作为baselines,同时为了验证本文模型的有效性,构造了一个ISOLATION系统,单独考虑相关性和显著性。

Summarization Performance

对比结果看下图:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

整体来看本文的算法结果具有竞争性,但没有绝对竞争性。训练数据用ROUGE-2指标做了预处理分析,目标函数也是朝着ROUGE-2最大的方向,最后的评价指标也是ROUGE-2,在DUC2005和2006上很容易出现过拟合的情况,比其他结果表现好也是正常情况。整体感觉模型的效果很一般。

来源:paperweekly

原文链接

AttSum: Joint Learning of Focusing and Sum with Neural Attention相关推荐

  1. 【读】AttSum: Joint Learning of Focusing and Summarization with Neural Attention

    本文转载自: 自动文摘(八) 目录 Abstract Introduction Query-Focused Sentence Ranking CNN Layer Pooling Layer Ranki ...

  2. AttSum: Joint Learning of Focusing and Summarization with...

    引 最近读的几篇paper都是用seq2seq的思路来解决问题,有点读厌烦了,今天换个口味.分享一篇extractive式的paper,AttSum: Joint Learning of Focusi ...

  3. Accelerating Deep Learning by Focusing on the Biggest Losers

    文章目录 概 相关工作 主要内容 代码 Accelerating Deep Learning by Focusing on the Biggest Losers 概 思想很简单, 在训练网络的时候, ...

  4. [CVPR 2020] D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features

    零.概要 论文: D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features tag: CVPR 20 ...

  5. On the Use of BERT for Automated Essay Scoring: Joint Learning of Multi-Scale Essay Representation学习

    BERT在作文自动评分中的应用:多尺度作文表征的联合学习 1. Introduction 针对预训练语言模型在AES领域效果不好的问题进行分析: 首先,预先训练的模型通常是在句子层面上进行训练,但没有 ...

  6. 论文阅读: Channel Augmented Joint Learning for Visible-Infrared Recognition

    论文阅读: Channel Augmented Joint Learning for Visible-Infrared Recognition code: https://gitee.com/mind ...

  7. 论文阅读32 | Channel Augmented Joint Learning for Visible-Infrared Recognition

    论文:Channel Augmented Joint Learning for Visible-Infrared Recognition 出处:CVPR 2021 1.摘要 这篇文章介绍了一种通道增强 ...

  8. Joint Learning of Deep Retrieval Model and Product Quantization based Embedding Index

    Joint Learning of Deep Retrieval Model and Product Quantization based Embedding Index 嵌入索引能够实现快速近似近邻 ...

  9. 【2015】CWE:字符嵌入和词嵌入的联合学习(Joint Learning of Character and Word Embeddings)

    文章目录 摘要 引言 模型 CBOW 字符增强的词嵌入 多原型字符嵌入 基于位置的字符嵌入 基于集群的字符嵌入 基于非参数集群的字符嵌入 2.5 初始化和优化 单词选择 3 实验和分析 结论 论文链接 ...

最新文章

  1. centos7安装pyenv
  2. hiveserver2 kerberos 认证失败
  3. linux用avk怎么提取字符,在Linux下进行视频音频格式转换提取等
  4. java实现泛型检索_高级Java泛型:检索泛型类型参数
  5. Linux 关闭、开启、查看 防火墙命令
  6. 跳槽必加薪?跳槽是涨薪最快的方式么
  7. 【python教程入门学习】零基础想转行学python,过来人提醒大家几点
  8. LeetCode刷题记录_最长公共前缀
  9. 数据库学习笔记6-隔离级别 Serializable
  10. rainmeter使用教程_如何使用Rainmeter在桌面上显示报价
  11. 项目范围管理:范围定义
  12. 点对点视频分发:从早期互联网到ZB字节(Zettabyte)时代的分布式网络
  13. 【HDLBits刷题笔记】Exams/ece241 2013 q7
  14. linux dolphin模拟器,dolphin模拟器32位64位
  15. 职业理想规划计算机专业,计算机专业的职业生涯规划书范文
  16. 赛灵思 PL 和 PS IBIS 模型解码器
  17. 专访黄文斌丨中专文凭的他,辞掉了9年的国企“铁饭碗”
  18. C++ OpenCV【人脸识别人眼识别】
  19. 图解python书_No2.一本书入门python——算法图解
  20. 《计算方法》---雅克比迭代法和高斯赛德尔迭代法(python实现)

热门文章

  1. 读取导入csv csv报错iterable expected, not float
  2. Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recur(ION)学习笔记
  3. 超详细Swagger基本使用方法【狂神】
  4. 非常简单的关闭lvba的方法
  5. 运营型CRM系统(运营型客户关系管理)只是针对于运营的吗?
  6. Gym - 100851F Froggy Ford (Dijkstra)
  7. 计算机常用计算单位换算关系,计算机单位换算bit(k与bit怎么换算)
  8. 这个超实用的小程序客服系统,码住
  9. 【剑桥摄影协会】相机曝光(Exposure)
  10. Jack Ma 你当初UT了没?