network representation learning(NRL)

Label Informed Attributed Network Embedding

这篇论文关注的是带标签的属性网络的特征向量化方法,Attributed Network Embedding(ANE)。

与只观察节点间的相互关系的普通网络(无监督的方法)不同,属性网路中的节点往往与丰富的标签信息相关联。本论文研究如何对标签进行建模和整个,将标签信息嵌入到网络特征向量中改进网络特征向量。

需要解决的问题:1、属性网络和标签信息可能是稀疏的、不完整的和有噪声的;2、考虑到属性网络及其标签的异质性,学习统一表示是具有挑战性的。

贡献:研究了标签对网络特征学习的潜在影响是什么;提出的LANE模型,可以帮助其他学习任务,如节点分类。

From Properties to Links: Deep Network Embedding on Incomplete Graphs

本文研究不完全网络(具有大量缺失链接的不完全图和有新节点加入的动态图)中的网络特征问题。我们提出了一种基于多视点相关的深层网络特征方法:MVC-DNE,将更有效根据网络结构和节点性能对不完全网络的特征进行学习。

MVC-DNE可以学到特征映射功能,它可以直接新加入节点的特征向量,而不需要重新训练模型。如图1所示,原网络有多个视图数据(社会关系视图和用户信息视图),通过MVC-DNE将其特征化到一个多维视图空间中。

Figure1

metapath2vec: Scalable Representation Learning for Heterogeneous Networks

提出了对异质网络的表示学习算法metapath2vec和metapath2vec++。论文的主要亮点在于:通过元路径来指导随机游走,从而构造出节点的邻居节点集合,然后基于异质的skip-gram模型进行节点embedding。

异质网络的表示学习就是学习不同类型的节点的特征表示,这个特征表示能够保留网络的结构特征和语义关系。

虽然异质网络中节点类型不同,但是特征表示空间是相同的。

元路径(Meta Path)是一种通过一组关系连接多个节点类型的路径,可以用来描述异质网络中不同类型对象之间各种连接的不同语义关系。

基于随机游走和Skip-gram的模型进行改进。

Adversarial Network Embedding

网络特征化是一个具有挑战性的研究问题,因为图形数据具有高度的维数稀疏性和非线性

现有的方法除了能捕获网络结构属性,它们中的大多数都缺乏表示鲁棒性的额外约束(实际应用中很常见的噪声网络数据处理时很困难)。这篇文章提出了一个对抗性网络特征学习(Adversarial Network Embedding)ANE框架。

Adversarial Network Embedding Framework如下图2所示。

Figure2

ANE利用对抗性学习原理学习网络的鲁棒性特征表示,它由两部分组成,即结构保持组件和对抗性学习组件。前者的目的是捕捉网络结构的性质,而后者有根据给定的先验知识和后验分布的匹配学习网络的鲁棒特征表示。

Figure3

如图2所示,对Zachary’s Karatenetwork网络的二维表示,a部分为InductiveDeepWalk,b部分为AdversarialInductive DeepWalk。不同颜色表示为不同的社区划分。图中可以看出AIDW能更好的捕捉结构信息。

On Embedding Uncertain Graphs

不确定图来表示数据存在嘈杂或者不精确,其边缘用概率表示。最近研究不确定图的算法(clustering, classification, and k-NN)。这些算法面临两个问题:(1)高维:不确定图往往高度复杂,影响了挖掘质量;(2)重用性差,现有的挖掘算法需要重新设计来处理不同任务的不确定图。

我们提出了一种称为URGE(UnceRtainGraph Embedding)的解决方法。给定一个不确定图G,给出G的一组低维向量。

Figure4

如图3所示,a部分是一个不确定图,b部分为不确定图可能的一中状态。

Structural Deep Embedding for Hyper-Networks

这篇文论研究的是超网络的特征化方法。

超网络是指超过成对关系,有三个或者更多的对象参与一条边的关系。

Figure5

分析超网络的一种典型方法是将其扩展到传统的成对网络。有两种代表性的技术:团体扩张(Clique expansion)每个超边扩展为一个团体(互相连接形成圈);星型扩张(starexpansion)超图转化为一个二分图每个超边通过与一个实例节点相连。

如上图5所示是一个超网络扩展的例子。(a)是一个超网络;(b)是这篇论文中的扩张方法,保留有组相似性;(c)是团体扩张,保留了显式的相似性;(d)是星型扩张,保留了隐式的相似性。

超网络存在的问题:

异构超网络的超边通常是不可分解的:在一个超边的一组节点有很强的相关关系,而在其子集的节点不一定有很强的关系。

提出的新的基于超网络的特征化方法Hyper-Network Embedding (DHNE) ,它在解决超边的不可分解同时可以保留丰富的结构信息。该方法的复杂度与节点数成线性关系,可用于大规模网络。

Representation Learning for Scale-free Networks

本文研究的是无标度网络的学习表示问题。

人造的网络结构和随机的网络结构中节点与其他节点的连结的数量分布都有规则可循,因此是有尺度的网络。而无尺度网络(或称无标度网络)是带有一类特性的复杂网络,其典型特征是在网络中的大部分节点只和很少节点连接,而有极少的节点与非常多的节点连接。如互联网这样的无标度网络。

之前的关于网络embedding的方法主要集中在保留网络的微观结构上,如节点之间的关系。而无标度特性是网络最基本的宏观属性之一。无标度特性描述网络节点度分布服从幂率分布。

论文通过将问题转化为球面填充问题(?)(Sphere Packing problem),研究在欧氏空间中恢复顶点度幂律分布的可行性。提出了基于保护无标度特性的定点处罚算法:处罚那些接近的度集中的顶点。基于光谱技术和skip-gram实现论文中的方法。

Figure6

如图6所示一个现实无标度网络的特性。(a)是一个学术网络,(b)和(c)分别是基于LE学习和基于本文提到的方法DPWalker方法学习的特征重建的网络度分布。

Laplacian Eigenmaps and Spectral Techniques for Embedding and Clustering

拉普拉斯特征映射(LE)也是一中常见的降维方法。LaplacianEigenmaps 看问题的角度和LLE有些相似,也是用graph的角度去构建数据之间的关系。它的直观思想是希望相互间有关系的点(在图中相连的点)在降维后的空间中尽可能的靠近。拉普拉斯特征映射可以反映出数据内在的流形结构。

使用时算法具体步骤为:

步骤1:构建图

使用某一种方法来将所有的点构建成一个图,例如使用KNN算法,将每个点最近的K个点连上边。K是一个预先设定的值。这样构建的图矩阵就是一个稀疏矩阵,只保留了最相似的K个邻居关系。

步骤2:确定权重

确定点与点之间的权重大小,例如选用热核函数来确定(当然这个地方你完全可以选择其他的相似度度量方式来衡量),如果点和点相连,那么它们关系的权重设定为:

另外一种可选的简化设定是如果点,相连,否则。

步骤3:特征映射

计算拉普拉斯矩阵L的特征向量与特征值:

其中D是对角矩阵,满足,

使用最小的m个非零特征值对应的特征向量作为降维后的结果输出。

Figure7

见图7所示,左边的图表示有两类数据点(数据是图片),中间图表示采用Laplacian Eigenmap降维后每个数据点在二维空间中的位置,右边的图表示采用PCA并取前两个主要方向投影后的结果,可以清楚地看到,在此分类问题上,Laplacian Eigenmap的结果明显优于PCA。

SHINE: Signed Heterogeneous Information Network Embedding for Sentiment Link Prediction

在线社交网络(facebook、Twitter、Weibo)中,人们常常与其他人分享情感和表达态度,这在用户之间形成了大量的情感联系。以往的研究主要集中在文本情感分类上,然而,文本信息只能揭示用户真实意见的“冰山一角”,其中多数是未被观察到的。

为了解决这个问题,本文研究了如何在异构信息存在的情况下预测可能存在的情感链接

首先,由于主流社交网络缺乏明确的情感链接,通过实体层次情感提取方法,建立了一个由用户情感关系、社会关系和轮廓知识组成的标签异质情感数据集。然后提出了一种新的、灵活的端到端符号异构信息网络特征化框架(SHINE),从异构网络中提取用户潜在的表示,并预测未观察到的情感链接的符号。

使用的数据集是微博,研究基础方法:LINE、node2vec、SDNE、FxG、LIBFM。

Figure8

如上图8是一个具有情感、社会关系和用户配置的异构网络片段。

Structural Deep Network Embedding

一阶估计与二阶估计的概念,最早是在LINE模型中提出的,提出这一概念,主要目的是为了解决前面提出的重构网络信息不全面和网络稀疏的问题。

一阶估计定义为,两个存在链接的节点的相似程度。以下面的图9为例,节点6和节点7因为有公共链接,则它们的一阶估计值会比较大。但是由于网络稀疏的缘故,节点之间的链接并不一定存在,但这不能说明节点之间不相似,所以,为了解决这一问题,这里提出二阶估计的概念。二阶估计衡量的是不同节点相邻结构的相似程度。同样以上图为例,节点5和节点6虽然没有直接相连,但它们的链接结构是类似的,所以它们二阶估计的值,会相对比较大。

Figure9

基于上述概念,本文的一大贡献在于提出了一种新的半监督学习模型,结合一阶估计与二阶估计的优点,用于表示网络的全局结构属性和局部结构属性。

之前读的一些有关NRL论文的简单总结

network representation learning(NRL)相关推荐

  1. A Transformer-based Framework for Multivariate Time Series Representation Learning(KDD2022)

    A Transformer-based Framework for Multivariate Time Series Representation Learning(KDD2022) 提出了一种基于t ...

  2. 网络表示学习Network Representation Learning/Embedding

    网络表示学习Network Representation Learning/Embedding 网络表示学习相关资料 网络表示学习(network representation learning,NR ...

  3. 【论文翻译|2021】A survey on heterogeneous network representation learning 异构网络表示学习综述

    文章目录 摘要 1引言 2 相关工作 3 相关概念 4 分类 4.1 异构信息网络表示方法概览 4.2 异构信息网络嵌入算法的分类 4.3 基于路径的算法 4.3.1 传统的机器学习 5 讨论 5.1 ...

  4. 【论文翻译 IJCAI-20】Heterogeneous Network Representation Learning 异构网络表示学习

    文章目录 摘要 1 引言 2 异构网络挖掘 3 异构网络表示 3.1 异构网络嵌入 3.2 异构图神经网络 3.3 知识图谱与属性网络 3.4 应用 4 挑战.方向和开源数据 4.1 未来方向 避免设 ...

  5. 训练softmax分类器实例_CS224N NLP with Deep Learning(四):Window分类器与神经网络

    Softmax分类器 我们来回顾一下机器学习中的分类问题.首先定义一些符号,假设我们有训练集 ,其中 为输入, 为标签,共包括 个样本: 表示第 个样本,是一个 维的向量: 表示第 个样本的标签,它的 ...

  6. 转【面向代码】学习 Deep Learning(二)Deep Belief Nets(DBNs)

    [面向代码]学习 Deep Learning(二)Deep Belief Nets(DBNs) http://blog.csdn.net/dark_scope/article/details/9447 ...

  7. 强化学习 最前沿之Hierarchical reinforcement learning(一)

    强化学习-最前沿系列 深度强化学习作为当前发展最快的方向,可以说是百家争鸣的时代.针对特定问题,针对特定环境的文章也层出不穷.对于这么多的文章和方向,如果能撇一隅,往往也能够带来较多的启发. 本系列文 ...

  8. Adaptive Deconvolutional Networks for Mid and High Level Feature Learning(阅读)

    Adaptive Deconvolutional Networks for Mid and High Level Feature Learning(阅读) Matthew D. Zeiler, Gra ...

  9. ObjecT4:On-line multiple instance learning (MIL)学习

    原文链接:http://blog.csdn.net/ikerpeng/article/details/19235391 用到论文,直接看翻译. 文章:Robust object tracking wi ...

最新文章

  1. C++——虚函数(Virtual Member Functions) 【functions语意学】
  2. 深度学习不可信?大脑建模先驱有话说
  3. eeglab教程系列(10)-绘制ERP图像
  4. 都说程序员加班很严重,来听听国外的程序员怎么说
  5. WebBrowser介绍——Javascript与C++互操作
  6. 生产者消费者模型的学习
  7. ssms没有弹出服务器验证_使用SSMS扫描和查找SQL Server数据库的潜在安全漏洞
  8. 【数据结构与算法】红黑树的Java实现
  9. 【强化学习】MOVE37-Introduction(导论)/马尔科夫链/马尔科夫决策过程
  10. Java依赖注入 - DI设计模式示例教程
  11. php 重载进程,关于php-fpm与nginx进程重载
  12. vue: table制作发货单表格并打印
  13. ASM故障组offline
  14. 2022年第十三届蓝桥杯大赛软件省赛Java学B组试题
  15. pageX,pageY,screenX,screenY,clientX,和clientY,offsetX ,offsetY,layerX,layerY的使用 和 区别
  16. Windows 11系统如何将“此电脑”显示在桌面?
  17. Python中Dataframe通过print输出多行时显示省略号
  18. gdb 查看内存 及 变量类型
  19. Thinking in Java:并发
  20. P4233 射命丸文的笔记

热门文章

  1. vue-cli3 webpack配置
  2. 乐视网:将于6月28日召开2018年度股东大会
  3. 2023年下半年全国软考报名时间汇总 (最新整理)
  4. 解开紫光展锐8.37%员工股权代持的疑团
  5. 微信公众号 分享好友
  6. org.jodd.jodd-all 4.3.1升级到5.1.0-20190624 ClassScanner 变动
  7. 【随笔杂谈】后院有树名樱桃
  8. 深度学习——引用量最高的20篇论文(2014-2017)
  9. Linux环境下使用WIFI模块:WIFI驱动移植
  10. C语言解决读入一个自然数n,计算其各位数字之和,用汉语拼音写出和的每一位数字。