文章目录

  • 1 前言
  • 2 问题定义
  • 3 SEED思路
    • 3.1 Sampling
    • 3.2 Encoding
    • 3.3 Embedding Distribution
  • 4 方法的优势与局限性
    • 4.1 优势
    • 4.2 局限性
  • 论文地址:https://openreview.net/pdf?id=rkem91rtDB
  • 源码:SEED-reimplementation
  • 来源:ICLR, 2020
  • 关键词:unsupervised learning, graph representation,

1 前言

该论文主要解决的是图结构数据的无监督的、inductive形式的表征问题。通常在无监督的图表征问题中,主要以重建损失为主导进行训练,但是在计算重建损失时通常要涉及到图的相似性计算,而图的相似性计算是一个十分复杂、耗时的过程,论文提出了一个通用的框架SEED(Sampling, Encoding and Embedding Distribution)用于无监督的学习图结构对象的表征。

2 问题定义

目标很简单,给定一个graph,学习它的表征。

3 SEED思路


如上图所示所示,SEED主要分为三个部分:

3.1 Sampling

从输入的图中采样出多个子图。为了使得采样到的子图更具代表性,论文中提出了一种新的采样方法 — WEAVE(random Walk with EArliest Visit timE)。该方法与通常的随机游走不一样,WEAVE是带结点访问时间戳的。

如上图所示,WEAVE的区分能力比平凡的搜集游走更强。每一个WEAVE都代表一个采样到的子图,可以用一个矩阵表示: X = [ x ( 0 ) , x ( 1 ) , ⋯ , x ( k ) ] X=\left[\mathbf{x}^{(0)}, \mathbf{x}^{(1)}, \cdots, \mathbf{x}^{(k)}\right] X=[x(0),x(1),,x(k)],其中 x ( p ) = [ x a ( p ) , x t ( p ) ] \mathbf{x}^{(p)} = [\mathbf{x}_a^{(p)}, \mathbf{x}_t^{(p)}] x(p)=[xa(p),xt(p)]x a ( p ) \mathbf{x}_a^{(p)} xa(p)表示在时间 p p p时访问到的结点的特征, x t ( p ) \mathbf{x}_t^{(p)} xt(p)表示访问到该结点时的时间向量。注意,如果访问到了已经访问过的结点则 x t ( p ) \mathbf{x}_t^{(p)} xt(p)为最早访问时的时间。在论文中, x t ( p ) \mathbf{x}_t^{(p)} xt(p)采用one-hot编码。

3.2 Encoding

将每一个采样到的子图编码为向量。直觉上,如果子图的表征质量好,那么就能在子图表征地基础上较好地重建子图。论文中作者采样自编码器学习子图的表征,以重建损失作为损失函数。至此, s s s个子图 { X 1 , . . . , X s } \{X_1, ..., X_s\} {X1,...,Xs}被表示为 s s s个向量 { z 1 , . . . , z s } \{\mathbf{z}_1, ..., \mathbf{z}_s\} {z1,...,zs}

3.3 Embedding Distribution

将上一阶段获得的多个子图的表征汇集作为输入图的表征。对于两个图,它们在表征空间中的距离应该与它们的子图向量分布距离类似,因此需要找到一个好的聚集函数来保留原先的子图表征分布距离,论文中采用的是 M M D MMD MMD
给定连个图 G , H \mathcal{G}, \mathcal{H} G,H,子图表征分别为: { z 1 , . . . , z s } \{\mathbf{z}_1, ..., \mathbf{z}_s\} {z1,...,zs}{ h 1 , . . . , h s } \{\mathbf{h}_1, ..., \mathbf{h}_s\} {h1,...,hs},则两者间的 M M D MMD MMD为:
M M D ^ ( P G , P H ) = 1 s ( s − 1 ) ∑ i = 1 s ∑ j ≠ i s k ( z i , z j ) + 1 s ( s − 1 ) ∑ i = 1 s ∑ j ≠ i s k ( h i , h j ) − 2 s 2 ∑ i = 1 s ∑ j = 1 s k ( z i , h j ) = ∥ μ ^ G − μ ^ H ∥ 2 2 \begin{aligned} \widehat{M M D}\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)=& \frac{1}{s(s-1)} \sum_{i=1}^{s} \sum_{j \neq i}^{s} k\left(\mathbf{z}_{i}, \mathbf{z}_{j}\right)+\frac{1}{s(s-1)} \sum_{i=1}^{s} \sum_{j \neq i}^{s} k\left(\mathbf{h}_{i}, \mathbf{h}_{j}\right) \\ &-\frac{2}{s^{2}} \sum_{i=1}^{s} \sum_{j=1}^{s} k\left(\mathbf{z}_{i}, \mathbf{h}_{j}\right) \\ =&\left\|\hat{\mu}_{\mathcal{G}}-\hat{\mu}_{\mathcal{H}}\right\|_{2}^{2} \end{aligned} MMD

(PG,PH)==s(s1)1i=1sj=isk(zi,zj)+s(s1)1i=1sj=isk(hi,hj)s22i=1sj=1sk(zi,hj)μ^Gμ^H22
μ ^ G , μ ^ H \hat{\mu}_{\mathcal{G}}, \hat{\mu}_{\mathcal{H}} μ^G,μ^H分别表示两个图的kernel embedding,也就是最终的graph representation,分别定义为:
μ ^ G = 1 s ∑ i = 1 s ϕ ( z i ) , μ ^ H = 1 s ∑ i = 1 s ϕ ( h i ) \hat{\mu}_{\mathcal{G}}=\frac{1}{s} \sum_{i=1}^{s} \phi\left(\mathbf{z}_{i}\right), \quad \hat{\mu}_{\mathcal{H}}=\frac{1}{s} \sum_{i=1}^{s} \phi\left(\mathbf{h}_{i}\right) μ^G=s1i=1sϕ(zi),μ^H=s1i=1sϕ(hi)
其中 ϕ ( ⋅ ) \phi(\cdot) ϕ()是与核函数 k ( ⋅ , ⋅ ) k(\cdot, \cdot) k(,)相关的特征映射函数(与SVM中的核技巧类似,将核函数的计算转化为更简单的计算形式)。
根据核函数的选择, ϕ ( ⋅ ) \phi(\cdot) ϕ()具有不同的形式,如RBF、MLP等。为了训练 ϕ ( ⋅ ) \phi(\cdot) ϕ(),文中使用如下的近似误差,其中 θ m \theta_m θmϕ ( ⋅ ) \phi(\cdot) ϕ()的参数):
J ( θ m ) = ∥ D ( P G , P H ) − M M D ^ ( P G , P H ) ∥ 2 2 J\left(\theta_{m}\right)=\left\|D\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)-\widehat{M M D}\left(P_{\mathcal{G}}, P_{\mathcal{H}}\right)\right\|_{2}^{2} J(θm)=D(PG,PH)MMD

(PG,PH)
22

通过最小化上述误差,就能学习到较好的聚集函数,在最终的表征中保留子图表征的分布距离。

该论文的方法与核方法有一定的相似性。论文还证明了同构的图的WEAVE的子图分布是类似的,并且对子图的采样长度进行了证明,详细内容可以参考论文。

4 方法的优势与局限性

4.1 优势

  • 给出了无监督形式的、inductive的图结构对象表征学习方法
  • 避免了复杂的图相似性计算,以类似于核技巧的方法较好地度量了图之间地距离
  • 对相关地定理进行了证明

4.2 局限性

  • 当图地规模较大时,采样的子图也会非常大,且可能需要采样地子图数量会很大


欢迎访问我的个人博客~~~

Inductive and Unsupervised Representation Learning on Graph Structured Objects相关推荐

  1. 《论文阅读》Global-Local Bidirectional Reasoning for Unsupervised Representation Learning of 3D Point Clou

    留个笔记自用 Global-Local Bidirectional Reasoning for Unsupervised Representation Learning of 3D Point Clo ...

  2. Unsupervised Representation Learning from Pre-trained Diffusion Probabilistic Models

    Unsupervised Representation Learning from Pre-trained Diffusion Probabilistic Models 论文链接: https://a ...

  3. 文章阅读:UNSUPERVISED REPRESENTATION LEARNING BY PREDICTING RANDOM DISTANCES

    UNSUPERVISED REPRESENTATION LEARNING BY PREDICTING RANDOM DISTANCES 文章:https://arxiv.org/pdf/1912.12 ...

  4. 生成对抗网络学习笔记5----DCGAN(unsupervised representation learning with deep convolutional generative adv)的实现

    首先是各种参考博客.链接等,表示感谢. 1.参考博客1:地址 --以下,开始正文. 1.DCGAN的简单总结 稳定的深度卷积GAN 架构指南: 所有的pooling层使用步幅卷积(判别网络)和微步幅度 ...

  5. 复现Modality to Modality Translation: An Adversarial Representation Learning and Graph Fusion Network

    说好的pytorch框架,结果加载个数据还得安tf和keras 结果又是ordinal not in range(128)的报错 这次可以判断是加上这段话解决的 import pickle as pk ...

  6. 对比学习系列论文MoCo v1(二):Momentum Contrast for Unsupervised Visual Representation Learning

    0.Abstract 0.1逐句翻译 We present Momentum Contrast (MoCo) for unsupervised visual representation learni ...

  7. MOCO: Momentum Contrast for Unsupervised Visual Representation Learning

    动机: Unsupervised representation learning is highly successful in natural language processing,but sup ...

  8. 表征学习 Representation Learning(特征学习、表示学习)是什么?

    在机器学习领域,表征学习(或特征学习)是一种将原始数据转换成为能够被机器学习有效开发的一种技术的集合.在特征学习算法出现之前,机器学习研究人员需要利用手动特征工程(manual feature lea ...

  9. 论文解读(GMI)《Graph Representation Learning via Graphical Mutual Information Maximization》

    Python微信订餐小程序课程视频 https://edu.csdn.net/course/detail/36074 Python实战量化交易理财系统 https://edu.csdn.net/cou ...

  10. Inductive Representation Learning In Temporal Networks via Causal Anonymous Walks

    文章目录 1 前言 2 问题定义 3 CAW思路 3.1 Causal Anonymous Walk 3.1.1 Causality Extraction 3.1.2 Set-based Anonym ...

最新文章

  1. 环境搭建 - 奥比中光3D摄像头(Astra Mini)
  2. AI如何设计,才能人类利益最大化?
  3. 死磕Java并发:分析 ArrayBlockingQueue 构造函数加锁问题
  4. Haproxy 与 Cookie
  5. C语言九十四之请编写函数fun(char *str, int n),其功能是:使字符串str的前导*号不能多余n个,若多于n个,则删除多余的*号,若少于或等于n个,则不做处理。
  6. leetcode546. 移除盒子(dp)
  7. MSP430学习笔记2---两个LED同时亮灭和顺闪
  8. chrome使用脚本修改组策略_允许Chrome安装第三方网站的脚本以及扩展的方法
  9. 银行有没有必要建立数据中台?看看这些架构师和技术总监怎么说
  10. 【java】窗口和流的应用
  11. Geant4学习一:写一个简单程序
  12. 为什么要学编写通达信指标公式
  13. 大数运算:Barrett And Montgomery
  14. 怎样删除计算机Windows7自带的游戏,win7自带游戏如何卸载?win7卸载自带游戏的步骤...
  15. ts重点学习71-implement语句
  16. HCIA网络基础17-HDLC和PPP
  17. 如何查看电脑上是否安装了MySQL
  18. Kamiya丨Kamiya艾美捷大鼠微量白蛋白酶联免疫吸附试验说明书
  19. MATLAB--微分方程
  20. 010 Zookeeper

热门文章

  1. 靶机渗透测试(Dina: 1.0.1)
  2. CNN基础和进展(上)
  3. iNFTnews|投资者值得关注的事情:目前80%的NFT属于17%的地址
  4. 服务器重装系统了资料怎么恢复吗,重装系统后可以恢复文件吗_网站服务器运行维护...
  5. 堆的应用:如何快速获取到TOP10最热门的搜索关键词?
  6. Hibernate Student_Course_Score设计
  7. 服务器稳定对页面的排名很重要,做网站排名:7个最受影响的因素
  8. java画的花_花卉 Javad Soleimanpour (上)
  9. 陕西数字博物馆上线虚拟现实馆已达142座
  10. oracle销售管理模块简称,Oracle EBS销售模块工作流介绍.pdf