[Structural Deep Embedding for Hyper-Networks](https://arxiv.org/abs/1711.10146) 是在hyperedge(超边是不可分解的)的基础上保留object的一阶和二阶相似性,学习异质网络表示。于与HEBE的区别在于,本文考虑了网络high-oeder网络结构和高度稀疏性。 传统的基于clique expansion 和star expansion的方法,显式或者隐式地分解网络(如下图所示)。也就说,分解后hyper edge节点地子集,依然可以构成一个新的超边。对于同质网络这个假设是合理地,因为同质网络地超边,大多数情况下都是根据潜在地相似性(共同地标签等)构建的。

但是在异质网络中要解决两个问题:不可分解性和结构保留。对于不可分解性,作者设计了不可分解的tuplewise相似性函数。这个相似性函数定义在hyper edge的所有节点上,确保超边的子集并没有融合在网络表示中,并且这个函数是非线性的。为了保留网络结构,作者设计了一个 Auto encoder,通过重构节点的邻居结构来学习节点表示,也就说有相似邻居的节点将有相似的向量表示,每一种节点类型对应一个auto encoder。这两部分在模型中,联合优化来同时解决这两个问题。模型框架图如下:

####几个定义 **1. Hyper Network:**一般形式为 G=(V,E)
,有T个类型的节点 V={Vt}Tt=1
,网络中的边是超边:即可以连接任意数量的节点: E={Ei=(v1,v2,vni)}(ni2)
。如果每个超边只连接两个节点,那么就退化为一般的network;如果 T2
,那么就是 heterogeneous hyper-network。 **2. First-Order Similarity:** 一阶相似性衡量的是节点间的N-tuplewise相似性。对于节点 v1,v2,,vN
,如果他们之间存在超边,那么这N个节点的一阶相似性是1,但是这种相似性并不存在于这N个节点的子集上。 **3. Second-Order Similarity:** hyper-network上的二阶相似性,衡量的是节点的邻居结构之间的相似性。邻居指的是: Eivi,ifviEi
。 #### Loss Function 节点 vi
的向量表示是 Xi
,S表示 N-tuplewise的相似性函数。也就说 1. if (v1,v2,,vN)E
,那么 S(v1,v2,,vN)
的值比较大(大于阈值 l)。 2. if (v1,v2,,vN)E
,那么 S(v1,v2,,vN)
的值比较小(小于阈值s)。 本文考虑的是N=3的均匀长度的超边。 scoring函数S不可以是线性的。如果是线性的那么: S(v1,v2,,vN)=iWiXi
。证明参考论文,基于阈值l和s,举个反例。 对于一阶相似性,本文采用的是multilayer perceptron,分成两个部分。第一部分是模型框架中的第二层,这是个全连接层而且激活函数是非线性的。输入是三个节点 (vi,vj,vk)
(他们属于三个不同的节点类型a,b,c)的向量表示 (Xai,Xbj,Xck)
。作者把他们拼接起来,并且映射到统一的空间L。

Lijk=σ(W(2)aXai+W(2)bXbj+W(2)cXck+b(2))

为了得到相似性,把它统一的空间中的表示 Lijk
映射到第三层的概率空间中:

Sijk=S(Xai,Xbj,Xck)=σ(W(3)Lijk+b(3))

如果节点 (vi,vj,vk)
之间存在hyper edge,那么 Rijk
的值为1,否则为0。损失函数(1):

L1=(RijklogSijk+(1Rijk)log(1Sijk))

从上式可以看出,如果 Rijk
的值为1,则 Sijk
的值比较大;如果 Rijk
的值为0,则 Sijk
的值比较小。这也就保留了一阶相似性。 **二阶相似性**,跟[SDNE](http://dl.acm.org/citation.cfm?doid=2939672.2939753)的思想是很相似的,也是构造邻接矩阵作为Auto encoder的输入。邻接矩阵 A=HHTDv
。矩阵 H
|V|×|E|
关联矩阵,每个元素h(v,e)=1,如果节点v属于超边e,否则为0;矩阵 Dv
是对角矩阵,包含着节点的度 d(v)=eEh(v,e)
。因而,邻接矩阵的每一项代表着两个节点的共同出现的次数。 Auto encoder包含编码器和解码器。编码器是把输入A非线性映射到X空间,解码器是把X非线性的重构到原始的特征空间 A^

Xi=σ(W(1)Ai+b(1))A^i=σ(W^(1)Xi+b^(1))

Auto Encoder的目的就是最小化输入和输出的重构错误。这就使得有相似邻居结构的节点,向量表示相近,也就是保留了二阶相似性 。邻接矩阵往往是稀疏的,因而作者只是处理非零项,通过sign函数。此外,每个节点类型对应着一个Auto encoder,因而损失函数是:

L2=t||sign(Ati)(AtiA^ti)||2F

为了保留一阶和二阶相似性,论文联合最小化目标函数:

L=L1+αL2

在大多数现实世界的网络中只有正相关关系,所以这个算法收敛时,其中所有的元组关系都是相似的。为了解决这个问题,根据噪声分布,为每条边采样多个负边。整体算法如下:

在实验方面,作者用了四个数据集:

  1. GPS:超边是(user, location, activity)
  2. MovieLens:超边是(user, movie, tag)
  3. drug:超边是(user, drug, reac- tion)
  4. WordNet:超边是(entity, relation, tail entity)

异质网络表示--Structural Deep Embedding for Hyper-Networks相关推荐

  1. Structural Deep Embedding for Hyper-Networks

    Structural Deep Embedding for Hyper-Networks 基本信息 博客贡献人 垂杨柳 作者 Haoyu Wang, Defu Lian*, Yong Ge [重要作者 ...

  2. 文献学习(part14)--Structural Deep Network Embedding

    学习笔记,仅供参考,有错必纠 文章目录 Structural Deep Network Embedding ABSTRACT INTRODUCTION RELATED WORK Deep Neural ...

  3. 【论文阅读|深读】SDNE:Structural Deep Network Embedding

    目录 前言 ABSTRACT 1. INTRODUCTION 2. RELATED WORK 2.1 Deep Neural Network 2.2 Network Embedding 3. STRU ...

  4. Structural Deep Clustering Network阅读与翻译

    文章作者信息: Structural Deep Clustering Network 结构化深度聚类网络 深度聚类算法SDCN,首次将GNN用到聚类上,由北邮.腾讯和清华联合发表在WWW2020上. ...

  5. Structural Deep Clustering Network 基于GNN的深度聚类算法 WWW2020

    论文链接:https://arxiv.org/abs/2002.01633 代码与数据集链接:https://github.com/lxk-yb/SDCN 摘要 聚类是数据分析中一个基础任务.最近,深 ...

  6. 基于meta-path的异质网络Embedding-HIN2vec

    HIN2vec 主要是学习异质网络节点和关系的embedding向量表示.HIN2vec主要跟为训练数据准备和表示学习两部分.在训练数据准备中,将网络数据表示成 <x,y,r,L(x,y,r)& ...

  7. 【论文笔记】Unsupervised Deep Embedding for Clustering Analysis(DEC)

    [论文笔记]Unsupervised Deep Embedding for Clustering Analysis(DEC) 文章题目:Unsupervised Deep Embedding for ...

  8. 同质异质网络——(F(fraud) A(Analytics) UDPSNT(Wylie_2015))

    当标签x的结点更大程度上连接其他标签x的结点的时候,这个网络是同质的.非同质的网络是异质的. 这里定义的同质异质网络是指行骗者更可能连接着其他行骗者.合法人更可能连接其他合法人. 令l为网络中合法结点 ...

  9. 《异质网络表征学习的研究进展》

    文章链接: link. 基础信息 包含不同类型节点和边的为异质信息网络. 元路径是定义在网络模式上的链接两类对象的一条路径 挑战 异质信息网络的复杂性也为网络表征学习提出了新的挑战: 节点和边的异质性 ...

最新文章

  1. SicilyRails
  2. 求1+2+……+N的和
  3. 通过带数据盘的自定义镜像来创建使用应用程序网关的虚拟机规模集
  4. 服务降级及dubbo中的实现示例
  5. LightOJ 1393 Crazy Calendar(博弈)题解
  6. Oracle用户密码使用特殊符号,例如(AND)、$(Dollar)、#(Pound)、*(Star)等
  7. 《深度学习工程师》听课笔记,编程作业和课后练习
  8. 『参考』.net CF组件编程(1)——基础之后
  9. Python中通过Image的open之后,去show结果打不开bmp图片,无法正常显示图片
  10. 彩虹六号按键精灵挂机脚本制作教程
  11. 合唱队形(c++DP)
  12. 梦幻显示器,国产屏幕OLED崛起
  13. 文件下载和二进制文件(图片、mp4视频)预览响应头的设置(防止中文名名乱码)
  14. ThinkPHP3.0主入口配置,注册、登录案例
  15. 17暑期ACM俱乐部个人训练赛第1场 (石油oj) 7.24号
  16. linux 命令行获取时间,【Linux】让命令提示符显示日期和时间
  17. windows重启mysql
  18. J-LINK使用问题汇总
  19. 行人重识别(3)——行人重识别(基于图像)综述
  20. 华为董事会名单大曝光:孙亚芳任正非等13名董事

热门文章

  1. 同济大学计算机学硕无人录取,同济大学公布拟录取结果,学硕初试成绩410分,复试却不合格!...
  2. python的初次接触(python3.7——安装教程)
  3. call、callee、caller详解
  4. CSS3 网格布局(grid-layout)基础知识 - 弹性尺寸的定义单位:fr 简介及实例
  5. 富士施乐推出“智能工作平台”旗舰产品 10款智能型彩色数码多功能机上市
  6. OPENGL(ubuntu下的实践)——基础篇(2)之红宝书
  7. linux中vi权限,Linux下文件权限、用户组、VI命令
  8. 全国天气预报城市代码
  9. 鸿蒙支持最低机型,鸿蒙2.0支持哪些手机-鸿蒙2.0系统支持机型汇总
  10. ObservableObject、Observedobject、Published的学习与使用