©PaperWeekly 原创 · 作者|李东明

学校|香港中文大学(深圳)本科生

研究方向|文本生成

摘要

医疗对话是一类特殊的对话形态,属于任务驱动型的对话场景,通常包含极为关键的病人求诊信息以及医生的诊断过程及建议等。针对医疗对话生成摘要有巨大的实际价值,可以方便总结就诊或咨询过程,形成有效、简洁的核心记录。

然而,针对该场景的摘要生成的侧重点与普通文档不同,医疗对话的摘要生成更注重于几个关键信息,即病人症状描述与医生的治疗意见。该文提出了一个新的医疗对话的摘要生成的数据集,并在此基础上提出了一个抽取式对话摘要生成模型。

论文标题:

Summarizing Medical Conversations via Identifying Important Utterances

论文链接:

https://www.aclweb.org/anthology/2020.coling-main.63.pdf

代码链接(含数据集):

https://github.com/cuhksz-nlp/HET-MC

任务与数据集

医疗对话的摘要生成是一种特殊的文本摘要生成,其目的是从患者与医生的对话中提取对话的主要信息并生成对话的摘要以供快速集中的信息整合或者为其他潜在医疗咨询找到相关的内容。与通用领域的对话不同,医患之间的对话往往有单一且明确的目的和内容(患者提出一个医疗相关的问题或症状描述,医生与病人沟通并提供诊断建议)。

因此,与普通的文本摘要生成相比,医疗对话摘要着重于患者的问题与医生的治疗建议,而更少关注其中一些非医疗的信息。通常患者的问题与医生的治疗建议往往都直接出现在对话中,因此医疗对话需要生成的摘要中往往可以在对话过程中找到足够的信息。

为了实施这一研究,文章从知名网络医疗资讯平台爬取源数据(https://www.chunyuyisheng.com/pc/qalist/?page=5#hotqa),并构建了一个包含 4.5 万对话的医疗对话数据集(详见该文 Github 链接),针对的都是中文医疗对话场景。

在这些具体对话中,患者一般先向医生提出问题,医生与患者之间进行多轮对话不断了解病情,同时在了解的过程中不断根据已知的情况提出医疗建议。对话结束后,医生会对患者的问题和医疗建议分别进行总结,以供其他患者参考。

下图展示了一个对话的例子,其中,中文是原始数据,英文部分为对应的翻译。在这个例子中,医疗建议的总结有两种,一种基本上就是把医生回答中的关键句子拼接在一起(SUM2-A),另一种是医生根据情况总结的医疗建议,其中可能会出现对话中没有出现的词语(SUM2-B)。在最终数据集中,一般对话都有 SUM2-A,只有一部分包含 SUM2-B。

由于医疗对话摘要所重点关注的两个内容——患者问题与诊断建议,往往都直接出现在对话当中,且医患对话的摘要需要足够的信息,不难想到使用抽取式的摘要生成方法从对话中识别重要句子并将它们抽取出来,并组合成摘要。

为了可以让模型通过有监督的方法学习哪些待抽取句子是重要的,就需要为对话中每一个句子标注一个重要性的标签,把这些标签视为银标准(silver standard),从而可以利用这些标签来训练抽取式摘要模型。

为此,该文首先针对对话中每一个句子,基于该句子分别与 SUM1 和 SUM2 的 ROUGE-1 分数标注该句子的注重要性。一般地,ROUGE-1 分数越高,表明该句子与 SUM1(或 SUM2)的相似度越高,也因此更有可能成为重要的句子。

因此,该文设置一个阈值,用于判断一个句子对 SUM1 和 SUM2 的重要性。如果一个句子对 SUM1 和 SUM2 的ROUGE-1 分数均高于阈值,那么认为该句子对 ROUGE-1 分数更高的摘要更重要。通过这种方式,该文把对 SUM1 和 SUM2 重要的句子分别标注为 PD 和 DT,并把其它不重要的句子记为 OT。

模型

该文提出的方法是抽取式的,因此模型的目的在于给对话中的每个句子打上标签(tagging),判别该句是否是重要的,并将判定为重要的句子拼接成摘要。常见的对话模型主要采用一个两层的序列模型框架,比如使用一个词级别编码器从句子中的词得到句子的表征,再用一个句级别的编码器从句子的表征中对上下文句子建模,预测每个句子的重要性标签(即 PD,DT 和 OT)。

该文在这种框架的基础上,在词级别编码器和句级别编码器之间增加了记忆模块进行增强(模型图如下所示)。

该文提出的层次编码标注模型(hierarchical encoder-tagger model, HET)由三大部分组成:词级别编码器,记忆模块,句级别编码器。该文模型的词级别编码器采用的是 BERT(和 ZEN)。该文以 BERT(和 ZEN)输出的对 [CLS] 字符的表征作为句子的表征(记第 i 个句子的表征为 ),并把句子表征送入记忆模块。

该文的记忆模块采用端到端的记忆神经网络(end-to-end memory networks),旨在利用上下文的对话中与当前句子相关的句子所包含的信息增强当前句子的表征,从而实现更好的对上下文句子信息的抽取,进而实现更好的标注。

作者使用一个 LSTM 词级别编码器,对对话中所有的句子分别编码,得到每个句子的向量表征,并将其视为记忆神经网络中的值(value),记其中第 j 个句子的表征为 。

而后,基于当前句与其它句子的相似度(该文采用 和 的内积),对相应的值(即 )加权,并把加权后得到的值的加权和,串联到当前句子 BERT(和 ZEN)数据的表征上(即 ),并将得到的向量送入句级别编码器。

句级别编码器由一个 LSTM 构成,LSTM 的输出经过一个线性变换后,再通过一个 softmax 或者条件随机场(CRF)标注器对句子的重要性进行标注。

实验结果与分析

该文作者在数据集上做了大量的实验,主要包括尝试不同的句级别编码器(不使用句级别编码器,LSTM,BiLSTM),不同的标注器(softmax,CRF),不同的预训练模型(BERT,ZEN),是否使用记忆模块。不同设定下的实验结果见下表。该表既汇报了模型在银标准的句子标签上预测的 F 值,也汇报了对于摘要本身的 ROUGE 分数。

总体来看,在绝大多数设定下,使用记忆神经网络能够有效提升模型识别重要句子的能力,尤其是对于医生的诊断建议(即 SUM2)来说,使用记忆神经网络的模型在所有的设定下,其 ROUGE 分数均超过没有使用记忆神经网络的基础模型。

此外,该文还与现有的其他典型抽取式摘要生成模型进行了比较,在医疗对话场景中,该文提出的 HET 模型显著优于之前的方法。

更多阅读

#投 稿 通 道#

 让你的论文被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

???? 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

???? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site

• 所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

COLING 2020 | 面向医疗对话的摘要生成相关推荐

  1. COLING 2020 | 面向机器阅读理解的双向认知思维网络

    ©PaperWeekly 原创 · 作者|张琨 学校|中国科学技术大学博士生 研究方向|自然语言处理 Motivation 近两年,大家纷纷在提我们正在从感知智能向认知智能迈进,模型需要具备认知理解推 ...

  2. 知识图谱如何助力文本摘要生成

    来源:丁香园大数据 本文约3800字,建议阅读8分钟 本文基于摘要生成,重点考虑如何帮助模型生成特定领域的知识点,并简要介绍一些用于应对无关重复这类退化现象的方案. 引言 文本生成类任务应用场景广泛, ...

  3. 报名通道开启 | 顶会 ICLR 2021:医疗对话生成与自动诊断国际竞赛,邀你来战!...

    ICLR,2013 年由深度学习三巨头中的Yoshua Bengio 和 Yann LeCun 牵头创办,已受到研究者和开发者的广泛认可,是当之无愧的深度学习领域顶级会议.今年,由中山大学.加利福尼亚 ...

  4. 直播 | COLING 2020 论文解读:基于话题引导的对话推荐系统

    「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和 ...

  5. YY/T 0664—2020《医疗器械软件 软件生存周期过程》 相关

    标准书:  YY/T 0664-2020 医疗器械软件 软件生存周期过程 - 道客巴巴 (doc88.com) 国家药监局关于发布34项医疗器械行业标准的公告(2020年第108号) 第10项为&qu ...

  6. 从会议、医患沟通和客服对话三大场景看对话文本摘要技术

    ©PaperWeekly 原创 ·作者 | 海晨威 研究方向 | 自然语言处理 文本摘要是 NLP 领域一个重要的任务,它以凝练的语句去描述原始文本中的主要信息.文本的形式是多种多样的,其中,对话文本 ...

  7. 基于BERT-PGN模型的中文新闻文本自动摘要生成——文本摘要生成(论文研读)

    基于BERT-PGN模型的中文新闻文本自动摘要生成(2020.07.08) 基于BERT-PGN模型的中文新闻文本自动摘要生成(2020.07.08) 摘要: 0 引言 相关研究 2 BERT-PGN ...

  8. 超越Facebook、谷歌、微软,百度发布全球首个百亿参数对话预训练生成模型PLATO-XL...

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 来自:机器之心 和 AI 进行无障碍的对话,是什么样的体验?你或许能够在这篇文章里找到 ...

  9. 【自然语言处理】【多模态】BLIP:面向统一视觉语言理解和生成的自举语言图像预训练

    BLIP: 面向统一视觉语言理解和生成的自举语言图像预训练 <BLIP: Bootstrapping Language-Image Pre-training for Unified Vision ...

最新文章

  1. YOLO-v4目标检测实时手机端实现
  2. 三国演义人物出场统计代码含义_实例2之《三国演义》人物出场统计
  3. python调用c++动态库 linux_linux中使用boost.python调用c++动态库的方法
  4. WdatePicker获取不超过今天的值
  5. mysql截取字符串最后两位_MySQL字符串函数substring:字符串截取
  6. pymysql.err.InternalError: (1054, Unknown column '27D24A3B' in 'where clause')之错误解决
  7. docker使用问题总结
  8. 转:SVN的Local方式:个人源码管理的好办法
  9. 很多绿化软件运行都会提示缺少msvcp71.dll、msvcr100.dll、msvcr71.dll等msvc**.dll文件错误解决方法
  10. 2018全球100个最有价值的科技品牌榜:阿里当选中国科技品牌NO.1
  11. Windows Azure系列公开课 - 第二课:为什么选择Windows Azure(下)
  12. 搜狗开源最新NLP研究成果,打造业内最全机器阅读理解工具包SMRC
  13. 进行数据离散化的原因_数据离散化及其KMeans算法实现的理解
  14. [13]2019-ICML-Active Learning for Probabilistic Structured Prediction of Cuts and Matchings
  15. JavaWeb检测注册内容是否在数据库中有相同的内容
  16. 大学数学学习参考书点评
  17. 第1关:MapReduce综合应用案例 — 电信数据清洗
  18. 【OpenCV】色彩空间介绍
  19. 2018年银联红包领取方法
  20. 哈达玛矩阵 matlab,哈达玛变换矩阵.ppt

热门文章

  1. 「CTA行为召唤按钮」设计规则解析
  2. 第8课:彻底实战详解使用IDE开发Spark程序
  3. Android Launhcer 左屏实现以及左屏作为默认显示屏幕实现方法
  4. RestTemplate转发请求
  5. linux权限644和664,linux:644、755、777权限详解
  6. php在liunx系统中设置777权限不起作用解决方法
  7. 终结者2服务器维护,《终结者2》12月27日更新维护公告 终结者2更新内容汇总
  8. APP修改包名后依然覆盖 注意事项
  9. Android手机实现视频监控
  10. Windows C#调用命令行实现WIFI管理