©PaperWeekly 原创 · 作者|舒意恒

学校|南京大学硕士生

研究方向|知识图谱

知识库是用于知识管理的特殊数据库,通常由大量三元组构成,三元组形如(奥巴马,出生于,火奴鲁鲁),三者分别是三元组的 subject、predicate 和 object(主语、谓词和宾语),其中谓词也可被称作关系。

知识库问答尝试构建利用知识库信息的问答系统,关系识别是知识库问答中的重要环节,即识别出自然语言问题中所提及的知识库谓词(关系),将自然语言描述与知识库中的谓词联系起来。本文盘点近年来部分关于知识库问答关系识别的研究。

首先,我们需要了解关系识别这一问题的难点,在自然语言对关系的描述中,通常存在以下现象:

  • 表述形式多样:例如“be famous for”和“known for”两个短语,虽然在字面上的相似度很低,但实际上在语义上相近。关系的描述不同于实体,可能不局限于短语的形式,还可能是由包含连词、介词等的搭配描述。

  • 隐式关系可能需要推断,例如“Which Americans have been on the moon?” 其中 Americans 表示一个针对“出生”的额外的约束,但句中没有“is born”这类显式的约束。

  • 含义与上下文相关:同一谓词在不同的语境中可能表示不同的含义,需要我们在识别关系时利用整个句子的上下文信息。

  • 测试集中的未知关系:在训练模型时,训练集中包含的关系数量总是有限的,测试集中可能包含大量模型没有学习过的关系。

  • 正负样本的生成:对于一个句子,正确的关系链接结果可能只有数个,而关系链接工具却可能产生远超过这个数量的错误的关系链接候选作为负样本。对于一个分类模型,如何平衡正负样本的数量,如何提升负样本的质量,值得讨论。

而当前关系识别的基本思路,大体上至少包括:

  • 谓词词典:词典即通过算法生成或人工编写的数据,可直接为关系识别的算法所用。在 NLP 研究中,有单词到单词的词典,短语到短语的词典,但此处特指的是谓词到短语的词典。

  • 神经网络方法:相比词典而言,神经网络方法具有更好的模糊匹配和应对未知输入的能力。

需要注意的是,无论是谓词词典还是神经网络方法,它们的构建都是基于有限的谓词信息,对于没有见过或者没有学习过的关系,识别的性能可能会相对下降,且不同的方法所适用的知识库也可能是不同的。而对于神经网络方法来说,经过预训练的词嵌入模型能够提供一定的超越训练数据的泛化能力。

下面,本文将从四方面简介现有的关系识别的研究。

  1. 简单问答系统中的关系识别模型

  2. 词嵌入方法在关系识别中的应用

  3. 谓词词典在关系识别中的应用

  4. 未知关系的识别

简单问答系统中的关系识别模型

简单问答在此处指的是没有约束或聚合操作的,通过找到问题中所述的实体和关系,就能直接通过知识库中三元组进行回答的问答任务。在简单问答的过程中,实体和关系的链接是最关键的问题,是找到知识库中相关三元组无法回避的问题。

ACL 2016《Simple Question Answering by Attentive Convolutional Neural Network》一文尝试使用注意力卷积神经网络做简单问答,如下图所示,包含两个主要步骤:实体链接与事实选择。其事实所指的是知识库中三元组表示的事实。

  • 实体链接:通过字符级 CNN 将事实候选中的主语实体与问题中的实体描述进行匹配。

  • 谓词链接:通过单词级 CNN 将该事实中的谓语与问题进行匹配。

使用 CNN 处理文本,尤其应对形态多变的关系描述,存在着固有的缺陷:关系的描述可能并不局限在一个文本的局部,长距离依赖是可能存在的,且长度不便预估。

ACL 2017《Improved Neural Relation Detection for Knowledge Base Question Answering》尝试更好地揣摩自然语言问题的含义,其任务相比于上文更加简单,匹配自然语言问题与知识库关系,给出相似度。

作者构建了一个如下图所示的分层 RNN 尝试实现这一点,一个深度残差双向 LSTM 被用于在不同的抽象层次表示问题。对于关系表示,作者使用了关系级表示和单词级表示,并通过最大池化将二者融合。

不过,个人认为即使作者通过消融实验说明利用残差学习的双层 Bi-LSTM 能够取得更好的效果,却很难从除参数规模以外的方面解释双层网络在问题理解上的优势。

词嵌入方法在关系识别中的应用

ICSC 2019《Evaluating Architectural Choices for Deep Learning Approaches for Question Answering over Knowledge Bases》通过实验研究知识库问答中的深度学习方法架构选择,其中在谓词预测任务中设定了下列架构:

  • BiLSTM-Softmax:标准的 BiLSTM softmax 分类器预测问题属性,输出范围覆盖训练过程中见过的所有属性

  • BiLSTM-KB:预测与预训练 KB 嵌入中最接近的谓词表示匹配的谓词低维表示

  • BiLSTM-Binary:二元决策,判断一对(主体,谓词)是否匹配给定问题

  • FastText-Softmax:使用 FastText 作为分类器预测属性

简单的结论是,作者认为 FastText 提供了更好的效果。FastText 是一个使用神经网络的词嵌入方法,表现出相对 BiLSTM 的各类方法的优越性。

ISWC 2019《Pretrained Transformers for Simple Question Answering over Knowledge Graphs》研究 BERT 在 SIMPLEQUESTIONS(简单问答的基准测试) 上的表现,并提供了在有限数据情况下基于 BERT 和 BiLSTM 的模型的评估。

可见,关系识别相比于实体的识别,对于数据量的要求更加严苛,而在相同数据量的情况下使用 BERT 的表现总是好于 BiLSTM。词嵌入与预训练模型的一个优势在于能引入外部的语言知识,来弥补有限的训练数据。

谓词词典在关系识别中的应用

重述(paraphrase),即同一个意思的不同文本表达方式,是理解知识库谓词的一种方法。即使是人类学习语言,在应对同一语义的大量不同表述时,可能最简单的方法也不过是记忆。

EMNLP 2012《PATTY: A taxonomy of relational patterns with semantic types》一文中介绍了一种经典的谓词词典的构造方法,而 AAAI 2020《The Value of Paraphrase for Knowledge Base Predicates》指出了前者的问题,并提出了一个优化后的谓词词典。部分现有词典的概览如上图所示。

Patty 是一个谓词到短语的词典,包含 225 个谓词和 127,811 个谓词-短语对。可见其谓词数量相当有限,并被后者认为其中存在一定的错误。

后者收集了 DBpedia(一个基于维基百科构建的知识库)中的 2,284 个谓词和 31,130 个谓词-短语对,其包含的谓词数量大幅提升,并去除了许多错误的短语。在问答系统之外,作者还尝试将该词典应用于问题生成任务。

作者通过实验证明,其新词典在 QALD(一项链接数据上构建问答系统的评估竞赛)上的表现有一定提升,其中带 * 表示使用新词典,如下图所示。

个人认为,即使通过大量运算和人工构建词典,并不断优化内容,一个好的词典对关系识别任务的影响也停留在量上的进步,对于一个有一定关系识别能力的问答系统,引入词典或许仅仅是一种辅助手段。词典存在容量限制,若要维护其与时俱进更是需要成本。

未知关系的识别

深度学习本质是经验主义的发展,而未知关系超出了经验的范畴,即训练数据中包含的关系总是有限的,需要通过额外的信息缓解这一缺陷。

ACL 2019《Learning Representation Mapping for Relation Detection in Knowledge Base Question Answering》认为利用知识图谱嵌入的预训练模型是一种方法。

预训练模型产生的关系表示不直接适用于特定的任务,若将它作为初始表示,可根据有标签的训练数据对模型进行微调,即相当于利用预训练模型丰富的语言知识,同时重点考虑如何将它的通用表示应用到关系识别任务中来。

但是,未知关系,即训练数据中没有见过的关系,其表示无法在微调中被更新。因此,作者尝试构建关系表示的适配器(adapter),以将通用目标的表示转换为任务特定的表示。

如上图所示,作者提出两种适配器的实现,分别是基础适配器和对抗适配器。对于基础适配器,直接使用线性映射;对于对抗适配器,其中的生成器尝试生成足够接近真实关系映射后的表示,而判别器尝试区分生成的虚假表示和真实的关系映射。

在设计完适配器后,其关系识别模型的整体架构类似于前文所述的分层 RNN 模型。

小结

个人认为,早前的问答系统的研究关注于简单问题,而解决简单问题中最重要的步骤就是实体链接与关系识别,它们直接决定了找到知识库中相关三元组的方法。而随着词嵌入方法和预训练模型的兴起,它们也被应用到关系识别任务中。

词典是一种直接记忆大量谓词表述的方法,如何利用众包和机器挖掘算法构造高质量的适用于不同数据集的有一定覆盖范围的词典,仍然是值得长期研究的课题。

而无论是神经网络方法还是利用谓词词典,它们所能记忆或者学习的谓词数量一定是有限的,在应用场景中仍然可能存在大量模型没有见过的关系,而要缓解这一问题,可能需要引入更多知识库外部的语言知识。

预训练模型通常不是为了某一个特定的 NLP 任务构建的,而要应用到具体的 NLP 下游任务中,需要进行一定的微调或转换。在关系识别任务中这一点也适用。

另外,现有的部分方法中,对自然语言问题的表示和对关系的表示是分离的,将这二者分别学习出表示再进行匹配与评分,不妨考虑如何通过注意力等模型找出问题中的关键信息,再与关系进行匹配。

联系我

很期待能与各位对知识图谱或问答系统有兴趣的同学交流学习(别忘了备注呀,谢谢)。

参考文献

[1] ACL 2016|Simple Question Answering by Attentive Convolutional Neural Network

[2] ACL 2017|Improved Neural Relation Detection for Knowledge Base Question Answering

[3] ICSC 2019|Evaluating Architectural Choices for Deep Learning Approaches for Question Answering over Knowledge Bases

[4] ISWC 2019|Pretrained Transformers for Simple Question Answering over Knowledge Graphs

[5] EMNLP 2012|PATTY: A taxonomy of relational patterns with semantic types

[6] AAAI 2020|The Value of Paraphrase for Knowledge Base Predicates

[7] ACL 2019|Learning Representation Mapping for Relation Detection in Knowledge Base Question Answering

更多阅读

#投 稿 通 道#

 让你的论文被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

???? 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

???? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site

• 所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

知识库问答中的关系识别研究回顾相关推荐

  1. 《中国人工智能学会通讯》——3.15 社交媒体中的谣言识别研究及其发展趋势...

    3.15 社交媒体中的谣言识别研究及其发展趋势 随着计算机和互联网技术的不断发展,社会已经进入了信息互联和人的互联高度融合的时代,人们可以在网络上自由地发布.传播和获取信息:人与人之间的联系也更加紧密 ...

  2. 论文浅尝 | 知识库问答中关系检测的学习表示映射

    论文笔记整理:吴涵,天津大学硕士,研究方向:自然语言处理. 链接: Paper: https://arxiv.org/pdf/1907.07328v1.pdf Code: https://github ...

  3. 互联网新闻报道中的突发事件识别研究

    在综合特定时间段内的热词和词间距,构建了突发事件的识别模型,以改变现有专题报道形成的相对滞后的局面 往往能够迅速得到各大媒体的关注并在网络中得以及时传播,同时那些用来表征事件的主要特征描述,便被广泛流 ...

  4. CIKM 2020 | 知识库问答复杂问题的分层查询图生成方法

    ©PaperWeekly 原创 · 作者|舒意恒 学校|南京大学硕士生 研究方向|知识图谱 导读 本文讨论知识库问答(KBQA)中查询图生成的强化学习方法.给定一个自然语言问题,知识库问答尝试自动从存 ...

  5. 实现中文唇语识别的多种途径

    更新: 常用数据集介绍及网站链接:数据集 一.P2Pnet-P2Cnet --(基于深度学习的唇语识别应用的研究与实现 杨帆 电子科技大学 2018) (一) 综述 中文唇语识别方案概述: 在中文唇语 ...

  6. 开放域知识库问答研究回顾

    ©PaperWeekly 原创 · 作者|舒意恒 学校|南京大学硕士生 研究方向|知识图谱 开放域问答的研究已经从复杂流水线系统进化到端到端深度神经网络.其中一些方法利用知识库中的信息进行作答,另一些 ...

  7. 知识图谱中的关系方向与强度研究

    知识图谱中的关系方向与强度研究 臧根林1,2, 王亚强1,2, 吴庆蓉1,2, 占春丽1,2, 谢新扬1,2 1 拓尔思知识图谱研究院,广东 广州 510665 2 广州拓尔思大数据有限公司,广东 广 ...

  8. 手把手教学构建农业知识图谱:农业领域的信息检索+智能问答,命名实体识别,关系抽取,实体关系查询

    项目设计集合(人工智能方向):助力新人快速实战掌握技能.自主完成项目设计升级,提升自身的硬实力(不仅限NLP.知识图谱.计算机视觉等领域):汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户 ...

  9. 苹果叶片病害识别中的深度学习研究

    苹果叶片病害识别中的深度学习研究 1.研究内容 基于DenseNet-121深度卷积网络,提出了回归.多标签分类和聚焦损失函数3种苹果叶片病害识别方法. 2.数据集介绍 用于识别的图像数据集来源于Ai ...

最新文章

  1. UA MATH567 高维统计I 概率不等式8 亚指数范数
  2. linux操作系统原理_Linux系统从新手到运维老鸟学习指南
  3. 书写README的各种markdown语法
  4. 使用maven工具无法进入debug
  5. “央视boys” 四人带货超5亿:权来康康,撒开了买
  6. EditPlus-CN使用总结
  7. 如何在ppt中打开html,如何在ppt中直接打开网页
  8. matlab的卡方临界值,Excel计算卡方分布,F分布
  9. 元界Metaverse清单:你需要知道的一切
  10. BZOJ3509. [CodeChef] COUNTARI
  11. Markdown博客系统的搭建与使用
  12. 计算机二级考试vb试题,2016计算机二级考试《VB》真题练习
  13. 矩阵快速幂(共轭函数)
  14. Android存储子系统流程--vold
  15. 运算放大器基本原理与参数解读
  16. python中让输出不换行
  17. 我用20种编程语言送上新年的祝福,Happy new year!
  18. 关于关于接口测试自动化的总结与思考接口测试自动化的总结与思考
  19. 华为鸿蒙os 新闻,华为P50无限延期,谁来组成华为鸿蒙OS“头部”?
  20. c语言程序设计林小茶,C语言第一篇概述林小茶

热门文章

  1. 均方根误差有没有单位_Python误差评判:MAE、MSE、RSquare、MAPE和RMSE
  2. html中属性idx区别,HTML 中的name属性和id属性有什么区别?
  3. ZJOI2019游记
  4. 元素的层次结构和HTML文档结构
  5. SpringMVC Restful api接口实现
  6. 19个必须知道的Visual Studio快捷键
  7. BZOJ2958 序列染色
  8. TCP/IP和UDP的区别
  9. C语言程序设计 练习题参考答案 第七章 (2) 指针与数组 main函数形参
  10. html css js调用dll,js调用Activex的dll