核心问题:

对于在知识图谱中估计节点重要性的问题,现有方法不能充分利用kg中可用的信息,或者缺乏为实体之间的复杂关系及其重要性建模所需的灵活性。我们提出了一种有监督的机器学习方法,该方法通过谓词感知(即关系)的注意机制和灵活的中心性调整,实现了注意力分数的聚合,而不是节点嵌入的聚合。

挑战包括为相邻节点的重要性之间的关系建模,对不同类型的实体进行准确的估计,并结合先前的节点重要性假设来帮助模型预测。

GENI应用一个注意力的GNN来感知谓词的分数聚合,以捕获节点与其邻居的重要性之间的关系。GENI还允许根据节点中心性灵活调整得分,从而根据图拓扑捕获节点的连通性。

problem definition:

首先定义一个importance score s 表示一个node的重要性/热度(比如一部电影的总票房就可以看作该电影的importance score),这里定义了节点重要性分数的估计:就是给定KG和一些节点的重要性分数,来学习一个function可以预估每个在KG中的节点的importance score。就是通过一个监督框架,学习一个函数,将KG中的任何节点映射到其得分,这样估计就尽可能接近地反映其真正的重要性

这里分为域内和域外估计:域内指的是给定同一类型的分数,估计同一类型的节点分数;域外指的是估计非同一类型的节点分数

对于建模节点重要性的考虑:

1.Neighborhood Awareness:由于相邻实体之间相互作用,而且它们往往具有共同的特征(网络同质性),因此在建模节点重要性时应考虑邻域。

2. Make use of predicates(即边/关系): kg由多种类型的谓词组成。假设不同的谓词在确定节点重要性方面可以发挥不同的作用,模型应该使用来自谓词的信息进行预测

3.centrality Awareness 中心感知:在没有任何其他信息的情况下,有理由认为高度中心的节点比较少中心的节点更重要。因此,需要根据节点的中心性来估算得分,从而获取节点的连通性。

4. 利用input importance score: 除了图拓扑之外,输入重要性得分还提供了有价值的信息来推断节点之间的关系及其重要性。因此,模型应该同时利用图形结构和输入分数来进行更准确的预测。

5. Flexible Adaptive: 我们对于节点重要性的假设,比如中心性的假设,可能与输入分数在kg上的真实分布不一致。此外,我们没有将模型限制在特定类型的输入分数上。另一方面,模型可以提供具有不同特征的输入分数。因此,一个模型能够灵活地适应输入分数所反映的重要性是至关重要的。

具体实现:

作为一种监督学习方法,GNN框架自然允许我们利用输入重要性分数来训练具有灵活适应性的模型(即解决了4,5)。一个实体的表示可以用它的邻居的表示来达到更好地表示,所以我们采用聚合来自邻居的重要性得分来达到(1)的效果。我们设计了谓词感知的注意机制,该机制模拟了谓词如何影响连接实体的重要性(2);我们采用中心性调整将节点中心性纳入估计(3)

Score Aggregation:

为了建模节点之间重要性的关系,不像以往那样聚合节点的embedding而是选择聚合节点的重要性分数(importance score),\alpha \:是一个在节点i,j之间的权重,通过一个注意力机制来学习得到;这里没有transform函数,因为是重要性分数的聚合。初始化输入为节点的feature vector,然后送入任何一个神经网络都可以,这里使用全连接层

Predicate-Aware Attention Mechanism

我们采用了一种谓词感知的注意机制来关注邻居的重要性得分:首先,我们考虑节点之间的谓词,因为不同的谓词可以在得分传播中扮演不同的角色。其次,我们考虑相邻的分数本身来决定注意力。

GENI通过共享谓词嵌入将谓词合并到注意计算中;也就是说,每个谓词由一个预定义长度的特征向量表示,并且该表示由所有层的节点共享。我们用pm- i j表示节点i和节点j之间的第m条边的谓词,
其中\phi表示从谓词到其embedding的映射。

Centrality Adjustment

常见假设节点的重要性与其在图中的中心性正相关,所以认为更中心的节点将比其他节点更重要,除非给定的重要性分数提供了矛盾的证据

我们定义节点的度为中心度和欢迎度的代替:

我们需要灵活地考虑在给定KG中节点的中心性与提供的节点输入重要性评分之间可能存在的差异,所以考虑到一个缩放和移动的节点中心度表示:(\gamma是可学习的缩放参数,\beta是可学习的移动参数)

最后结合中心度和节点传播中最后一层的重要性得分进行非先行转换就得到了final score表示如下

Model Architecture

图3(a)中描述的简单体系结构包括一个评分网络和一个单一评分聚合(SA)层(即,L = 1),然后是一个中心性调整组件。图3(b)以两种方式将其扩展为更通用的体系结构。

首先,我们对框架进行扩展,使其包含多个SA层;也就是L > 1。作为一个单独的SA层对直接邻居的得分进行聚合,但以多个堆叠SA层允许聚合来自更大邻居的分数。

其次,我们设计每个SA层包含一个可变数量的SA头,这些头各自独立地进行分数聚合和注意力计算。根据经验,我们发现使用多个SA头有助于模型的性能和优化过程的稳定性

对于每层的第h个SA头计算其聚合分数:

对于第一个SA层。每个SA头直接将score作为输入,对于每一层拥有H个SA头最后使用average函数得到该层的聚合表示:

对于每一层每一个头的注意力计算如前述,且拥有自己的单独的参数:

中心性调整实现在最终SA层的输出,为了实现独立的缩放和转移,每个头拥有单独的参数

然后在最后的第L层中,我们拥有H个SA头的情况下进行中心度调整,然后采用average平均,进行非线性转换后得到最终的重要性得分:

Model training

使用的是均方差:

GENI: Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks相关推荐

  1. Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks

    这是一篇将GNN运用在预测知识图谱(Knowledge Graph)节点重要性的文章,被KDD2019接收.文中提出了GENI模型,在GNN聚合信息的过程中只聚合一个标量(score)而不是聚合节点的 ...

  2. FreeKD:Free-direction Knowledge Distillation for Graph Neural Networks

    标题:FreeKD:Free-direction Knowledge Distillation for Graph Neural Networks 1.什么是知识蒸馏? 1.1 什么是知识: we t ...

  3. Iterative Deep Graph Learning for Graph Neural Networks: Better and Robust Node Embeddings

    摘要:在本文中,我们提出了一个端到端的图学习框架,即迭代深度图学习(IDGL),用于联合和迭代地学习图结构和图嵌入.IDGL的关键理论是基于更好的节点嵌入来学习更好的图结构,反之亦然(即基于更好的图结 ...

  4. Node Classification with Graph Neural Networks(使用GNN进行节点分类)

    文章目录 Setup 准备数据集 处理和可视化数据集 拆分数据集为分层训练集和测试集 训练和评估的实现 Feedforward Network(FFN) 构建一个Baseline神经网络模型 为bas ...

  5. 《Bag of Tricks for Node Classification with Graph Neural Networks》阅读笔记

    论文地址:Bag of Tricks for Node Classification with Graph Neural Networks 一.概述 本文作者总结了前人关于图上半监督节点分类任务的常用 ...

  6. Instant Graph Neural Networks for Dynamic Graphs

    图神经网络(GNNs)已被广泛用于图结构数据的建模.最近,在提高gnn的可扩展性以处理具有数百万节点的图方面取得了突破.然而,如何利用图神经网络实时表示大规模动态图的连续变化仍然是一个开放问题.现有的 ...

  7. 异质图综述 - Graph Neural Networks for Graphs with Heterophily: A Survey(CoRR 2022)

    论文链接: https://arxiv.org/pdf/2202.07082.pdf 目录 摘要 1 绪论 2 初步措施 3 具有异质性的 GNN 3.1 Non-local Neighbor Ext ...

  8. 【论文翻译_知识蒸馏】Distilling Holistic Knowledge with Graph Neural Networks

    (以下的"提取"都可以替换为"蒸馏"),收录于ICCV2021 摘要 知识提炼(KD)旨在将知识从一个更大的优化教师网络转移到一个更小的可学习学生网络.现有的知 ...

  9. 【知识图谱综述】Knowledge Graphs: A Survey

    知识图谱综述 本文主要在阅读文章Knowledge Graphs. ACM Comput. Surv., 54(4): 1–37. 2021的基础上进行归纳总结,涉及原理知识较浅,旨在帮助对知识图谱进 ...

最新文章

  1. 解决重写父类的方法且不会影响继承的子类的问题
  2. 用 python print() 函数实现的三个特效
  3. 基于android 定位系统,基于Android平台定位系统设计和实现
  4. 汉字-生僻字:生僻字目录2
  5. 【java】大并发下Timeout waiting for connection from pool 解决方案
  6. java怎么预加载字典值,有选择地显示预加载内容提高网站的性能
  7. 3DSmax里的nurms toggle命令中文版是什么意思
  8. linux 去掉csv文件第一行,使用PowerShell删除文本文件的第一行
  9. 编程中的幂等性(一):http幂等性
  10. HTML5七夕情人节表白网页制作【圣诞节3d相册】HTML+CSS+JavaScript 圣诞节3D相册代码表白制作
  11. 千锋web前端教学知识点记录及个人理解2
  12. 详解电路设计中的RC电路
  13. 南京润和,哎,感概!
  14. 公链,仍然是区块链产业的根基!
  15. Windows 10找回高性能模式和节能模式
  16. 如何提交form表单嵌套(提交表单外的数据方法 )
  17. 怎么理解socket ?
  18. 技术、产业、人才三管齐下,数字人民币渐行渐近 | 产业区块链发展周报
  19. 微服务系列:Nacos的搭建演武版(单机+集群+监控)
  20. 统计模型方法-验证性分析总纲

热门文章

  1. [论文笔记] Fusion++: VolumetricObject-LevelSLAM
  2. 南澳.西冲-东冲穿越之旅
  3. 《认知觉醒》-潜意识
  4. java计算机毕业设计高校实习实训管理系统源码+mysql数据库+系统+lw文档+部署
  5. Synergy安装及使用方法
  6. 程序员常用的画图软件/可视化和小技巧
  7. 为什么建议大家使用 Linux 开发?有那么爽吗?
  8. c语言求对应学号的总成绩,c语言 求大神编程。定义一个学生结构体,包括学号、姓名、年龄、成绩。1、要求输入五个学生相应的信息,求学生成绩总和。2、输入一个学生学号,把该学生全部信息输出。...
  9. 第18.1节 OE3.1实例-加载本地瓦片数据
  10. 知乎引流、知乎带货工具、知乎选品、数据分析、带货软件(1)