前情回顾

  1. 图神经网络:图数据表示及应用
  2. 图神经网络:消息传递图神经网络
  3. 图神经网络:基于GNN的节点表征学习
  4. 图神经网络:基于GNN的节点预测任务及边预测任务

1 超大图上的节点表征学习

1.1 简述

在十分庞大(节点数极多)的图上,图神经网络训练所需要的计算资源相当多,会极大地消耗计算机内存及显卡显存,这对使用者的设备带来过大的要求。

图神经网络已经成功地应用于许多节点或边的预测任务,然而,在超大图上进行图神经网络的训练仍然具有挑战。普通的基于SGD的图神经网络的训练方法,要么面临着随着图神经网络层数增加,计算成本呈指数增长的问题,要么面临着保存整个图的信息和每一层每个节点的表征到内存(显存)而消耗巨大内存(显存)空间的问题。虽然已经有一些论文提出了无需保存整个图的信息和每一层每个节点的表征到GPU内存(显存)的方法,但这些方法可能会损失预测精度或者对提高内存的利用率并不明显

因此,在进行超大图的节点表征学习时,需要考虑如何提高内存及显存的利用率。
一些针对这一问题的方法已被提出。

1.2 常见的方法

可以借助PyG官方文档来了解常见的应对超大图节点表征学习的方法。
一种主流的思路是将数据集进行划分,分批训练,再使用合适的方法耦合训练结果。
相关论文包括

  1. Inductive Representation Learning on Large Graphs, 这篇文章使用了大图中节点的低维嵌入方法,同时提出了GraphSAGE。
  2. Deep Graph Neural Networks with Shallow Subgraph Samplers,这篇文章使用浅子图采样器进行大图训练,主要针对深图神经网络的计算爆炸问题。
  3. Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Network,提出一种新的图神经网络的训练方法,它利用图聚类结构进行数据集采样。即本次学习的模型。

2 ClusterGCN

2.1 原理

ClusterGCN主要通过图节点聚类算法划分数据集,使用子图进行训练,然后再随机选择子图,构成batch减少划分数据集带来的信息丢失。

为了解决普通训练方法无法训练超大图的问题,Cluster-GCN论文提出:

  • 利用图节点聚类算法将一个图的节点划分为 c c c个簇,每一次选择几个簇的节点和这些节点对应的边构成一个子图,然后对子图做训练。
  • 由于是利用图节点聚类算法将节点划分为多个簇,所以簇内边的数量要比簇间边的数量多得多,所以可以提高表征利用率,并提高图神经网络的训练效率。
  • 每一次随机选择多个簇来组成一个batch,这样不会丢失簇间的边,同时也不会有batch内类别分布偏差过大的问题。
  • 基于小图进行训练,不会消耗很多内存空间,于是我们可以训练更深的神经网络,进而可以达到更高的精度。

该方法的提出大概依照了如下的逻辑:

  1. 提出使用图节点聚类算法将节点划分为多个簇。由于使用了子图进行训练,内存空间占用较全图训练更小,但仍然存在一些问题。

尽管简单Cluster-GCN方法可以做到较其他方法更低的计算和内存复杂度,但它仍存在两个潜在问题:

  • 图被分割后,一些边(公式(4)中的 Δ \Delta Δ部分)被移除,性能可能因此会受到影响。
  • 图聚类算法倾向于将相似的节点聚集在一起。因此,单个簇中节点的类别分布可能与原始数据集不同,导致对梯度的估计有偏差。
  1. 因此,提出了一种随机多簇方法

此方法的好处有,1)不会丢失簇间的边,2)不会有很大的batch内类别分布的偏差,3)以及不同的epoch使用的batch不同,这可以降低梯度估计的偏差。

博主不务正业的土豆的csdn文章对Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Network也对这篇文章进行了通俗易懂的讲解及相关知识的拓展,可以参考阅读。

2.2 代码实现

PyG库对基于图节点聚类的类簇划分进行了集成,可参见torch_geometric.data.ClusterData,以及torch_geometric.data.ClusterLoader
此处使用Reddit数据集,是由来自Reddit论坛的帖子组成,如果两个帖子被同一人评论,那么在构图的时候,就认为这两个帖子是相关联的,标签是每个帖子对应的社区分类。
这是一个很大的数据集,拥有232965个节点及114615892条边,被分为41类。

from torch_geometric.datasets import Redditdataset = Reddit('../dataset/Reddit')
data = dataset[0]

代码的实现主要分为几步:

  1. 实例化数据集的划分(cluster_data),随机聚合簇成为batch(train_loader),在后续代码中,划分后的数据集将作为全局变量使用
from torch_geometric.data import ClusterData, ClusterLoader, NeighborSamplercluster_data = ClusterData(data, num_parts=1500, recursive=False, save_dir=dataset.processed_dir)
train_loader = ClusterLoader(cluster_data, batch_size=20, shuffle=True, num_workers=12)
subgraph_loader = NeighborSampler(data.edge_index, sizes=[-1], batch_size=1024, shuffle=False, num_workers=12)
  1. 图神经网络搭建
import torch
import torch.nn.functional as F
from torch.nn import ModuleList
from tqdm import tqdm
from torch_geometric.nn import SAGEConvclass Net(torch.nn.Module):def __init__(self, in_channels, out_channels):super(Net, self).__init__()self.convs = ModuleList([SAGEConv(in_channels, 128),SAGEConv(128, out_channels)])def forward(self, x, edge_index):for i, conv in enumerate(self.convs):x = conv(x, edge_index)if i != len(self.convs) - 1:x = F.relu(x)x = F.dropout(x, p=0.5, training=self.training)return F.log_softmax(x, dim=-1)def inference(self, x_all):pbar = tqdm(total=x_all.size(0) * len(self.convs))pbar.set_description('Evaluating')# Compute representations of nodes layer by layer, using *all*# available edges. This leads to faster computation in contrast to# immediately computing the final representations of each batch.for i, conv in enumerate(self.convs):xs = []for batch_size, n_id, adj in subgraph_loader:edge_index, _, size = adj.to(device)x = x_all[n_id].to(device)x_target = x[:size[1]]x = conv((x, x_target), edge_index)if i != len(self.convs) - 1:x = F.relu(x)xs.append(x.cpu())pbar.update(batch_size)x_all = torch.cat(xs, dim=0)pbar.close()return x_all

这个网络由两个GraphSAGE卷积层构成。

  1. 构建训练函数及测试函数
def train():model.train()total_loss = total_nodes = 0for batch in train_loader:batch = batch.to(device)optimizer.zero_grad()out = model(batch.x, batch.edge_index)loss = F.nll_loss(out[batch.train_mask], batch.y[batch.train_mask])loss.backward()optimizer.step()nodes = batch.train_mask.sum().item()total_loss += loss.item() * nodestotal_nodes += nodesreturn total_loss / total_nodes@torch.no_grad()
def test():  # Inference should be performed on the full graph.model.eval()out = model.inference(data.x)y_pred = out.argmax(dim=-1)accs = []for mask in [data.train_mask, data.val_mask, data.test_mask]:correct = y_pred[mask].eq(data.y[mask]).sum().item()accs.append(correct / mask.sum().item())return accs

train函数对每一个随机聚合簇的batch进行训练。

  1. 实例化网络,指定优化器
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = Net(dataset.num_features, dataset.num_classes).to(device)
optimizer = torch.optim.Adam(model.parameters(), lr=0.005)
  1. 训练,测试
df = pd.DataFrame(columns = ["Loss"])
df.index.name = "Epoch"
df_test = pd.DataFrame(columns = ["Train","Val","test"])
df_test.index.name = "Epoch"for epoch in trange(1, 31):loss = train()df.loc[epoch] = lossif epoch % 5 == 0:train_acc, val_acc, test_acc = test()print(f'Epoch: {epoch:02d}, Loss: {loss:.4f}, Train: {train_acc:.4f}, 'f'Val: {val_acc:.4f}, test: {test_acc:.4f}')se = pd.Series([train_acc, val_acc, test_acc],index = ["Train","Val","test"])df_test.loc[epoch] = seelse:print(f'Epoch: {epoch:02d}, Loss: {loss:.4f}')

共进行了29个epoch的计算,计算结果如下
损失函数

在三个数据集上的准确率

最终在训练集上的准确率为95.8%,验证集上的准确率为94.2%,测试集上的准确率为94.1%

关于num_workers参数设定。

2.3 不同数量子数据集上的训练(作业)

2.3.1 数据集的随机划分

此处借助torch_geometric.data.RandomNodeSampler来实现一个数据集的随机划分,使用num_parts参数确定划分数量,划分后生成为类对象,可通过遍历该类对象获得划分好的data对象。

from torch_geometric.data import RandomNodeSampler
newdata_train = RandomNodeSampler(data, num_parts=3, shuffle=True)for each in newdata_train:each #这个对象为划分好的data对象

2.3.2 在不同划分结果上的训练

本次共进行了3、4、5、6共四种划分,划分的子数据集的节点数量如下:

划分 3 4 5 6
节点数量 77696 57786 46793 39029

依然采用ClusterGCN进行训练,训练代码如下:

for each in newdata_train:cluster_data = ClusterData(each, num_parts=300, recursive=False)#, save_dir=dataset.processed_dir)train_loader = ClusterLoader(cluster_data, batch_size=20, shuffle=True, num_workers=12)subgraph_loader = NeighborSampler(each.edge_index, sizes=[-1], batch_size=320, shuffle=False, num_workers=12)model = Net(dataset.num_features, dataset.num_classes).to(device)optimizer = torch.optim.Adam(model.parameters(), lr=0.005)df = pd.DataFrame(columns = ["Loss"])df.index.name = "Epoch"df_test = pd.DataFrame(columns = ["Train","Val","test"])df_test.index.name = "Epoch"for epoch in trange(1, 31):loss = train()df.loc[epoch] = lossif epoch % 5 == 0:train_acc, val_acc, test_acc = test(each)print(f'Epoch: {epoch:02d}, Loss: {loss:.4f}, Train: {train_acc:.4f}, 'f'Val: {val_acc:.4f}, test: {test_acc:.4f}')se = pd.Series([train_acc, val_acc, test_acc],index = ["Train","Val","test"])df_test.loc[epoch] = seelse:print(f'Epoch: {epoch:02d}, Loss: {loss:.4f}')#result.append({"df":df,"df_test":df_test})break

2.3.3 在不同划分结果上的训练结果

  1. 划分数为3
    损失函数

    在三个数据集上的准确率

    最终在训练集上的准确率为97.9%,验证集上的准确率为94.3%,测试集上的准确率为93.8%

  2. 划分数为4
    损失函数

    在三个数据集上的准确率

    最终在训练集上的准确率为98.5%,验证集上的准确率为94.2%,测试集上的准确率为93.6%

  3. 划分数为5
    损失函数

    在三个数据集上的准确率

    最终在训练集上的准确率为98.7%,验证集上的准确率为93.4%,测试集上的准确率为93.3%

  4. 划分数为6
    损失函数

    在三个数据集上的准确率

    最终在训练集上的准确率为98.7%,验证集上的准确率为93.4%,测试集上的准确率为92.8%

2.3.4 不同节点数量训练效果对比

小结上述结果如下表

节点数量 232965 77696 57786 46793 39029
训练集上准确率 95.8% 97.9% 98.5% 98.7% 98.7%
验证集上准确率 94.2% 94.3% 94.2% 93.4% 93.4%
测试集上准确率 94.1% 93.8% 93.6% 93.3% 92.8%

可以看到,该网络随着数据集节点数的减少,虽然训练集上的准确性增加,但验证集及测试集的准确性均基本出现下降,出现了一定程度的过拟合。

参考阅读

  1. Datawhale组队学习

Datawhale 6月学习——图神经网络:超大图上的节点表征学习相关推荐

  1. Datawhale 图神经网络 Task05 超大图上的节点表征学习

    学习课程:gitee_Datawhale_GNN 学习论坛:Datawhale CLUB 公众号:Datawhale 本次学习的内容是有关于超大图的,具体的论文是Cluster-GCN: An Eff ...

  2. 超大图上的节点表征学习

    一.Cluster-GCN 论文 Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional ...

  3. 图神经网络/GNN(三)-基于图神经网络的节点表征学习

    Task3概览: 在图任务当中,首要任务就是要生成节点特征,同时高质量的节点表征也是用于下游机器学习任务的前提所在.本次任务通过GNN来生成节点表征,并通过基于监督学习对GNN的训练,使得GNN学会产 ...

  4. 图神经网络的图网络学习(上)

    图神经网络的图网络学习(上) 原文:Learning the Network of Graphs for Graph Neural Networks 摘要 图神经网络 (GNN) 在许多使用图结构数据 ...

  5. 图机器学习(GML)图神经网络(GNN)原理和代码实现(前置学习系列二)

    图机器学习(GML)&图神经网络(GNN)原理和代码实现(PGL)[前置学习系列二] 上一个项目对图相关基础知识进行了详细讲述,下面进图GML networkx :NetworkX 是一个 P ...

  6. 【图神经网络】图分类学习研究综述[2]:基于图神经网络的图分类

    基于GNN的图分类学习研究综述[2]:基于图神经网络的图分类 论文阅读:基于GNN的图分类学习研究综述 3. 基于图神经网络的图分类 3.1 卷积 3.2 池化 论文阅读:基于GNN的图分类学习研究综 ...

  7. 图神经网络的图网络学习(下)

    原文:Learning the Network of Graphs for Graph Neural Networks 1. 文章信息 作者 Yixiang Shan, Jielong Yang, X ...

  8. 图神经网络基础--基于图神经网络的节点表征学习

    图神经网络基础–基于图神经网络的节点表征学习 引言 在图节点预测或边预测任务中,首先需要生成节点表征(Node Representation).我们使用图神经网络来生成节点表征,并通过基于监督学习的对 ...

  9. A.图机器学习(GML)图神经网络(GNN)原理和代码实现(前置学习系列二)

    图学习图神经网络算法专栏简介:主要实现图游走模型(DeepWalk.node2vec):图神经网络算法(GCN.GAT.GraphSage),部分进阶 GNN 模型(UniMP标签传播.ERNIESa ...

最新文章

  1. 作为程序员,我是怎么通过一个方法记住7000个单词的!
  2. LeetCode12- 整数转罗马数字
  3. UA OPTI501 电磁波 LIH介质中的平面波1 平面波的性质
  4. 2021高考成绩查询系统 www.lzk.hl.cn,2021年黑龙江高考志愿在线填报网址入口:https://www.lzk.hl.cn/...
  5. FFmpeg中MPEG-4编码程序追踪,其他FFMPEG自带编码器同理
  6. php 如何让html表单当中的数据在修改mysql的时候自动变更_怎么用php把html表单内容写入数据库?...
  7. 中文数字转换为阿拉伯数字
  8. 【白皮书分享】2020年短视频全链路营销白皮书.pdf(附下载链接)
  9. 奚恺元《别做傻瓜做的事》
  10. 抖音视频根据用户ID下载方法
  11. 读赵凯华之《新概念物理教程.量子物理》
  12. ansys 如何截取高清的网格图
  13. 【前沿技术RPA】 一文学会用UiPath实现自动发送电子邮件(Email Automation)
  14. B-样条曲线:重要性质
  15. 相机去畸变软件OCamCalib的使用方法
  16. 基于S3C2440丛SD卡启动WinCE(或其它程序)的实现
  17. 乐字节最全面向对象深入1
  18. 串流直播流媒体视频发布平台功能模块和产品技术参数
  19. python抽取timedelta中的天数、小时、分钟、秒钟信息
  20. ySQL字符串函数:字符串截取

热门文章

  1. 百度在年前会在打击一轮快排!
  2. 未root手机如何使用Xposed框架(Android抓包无忧矣~)
  3. 95后,刚工作2-3年就年薪50W+ ,才发现打败我们的,从来不是年龄···
  4. python np.mod() 取模运算
  5. jsMath绝对值和三个取整的方法
  6. 敌人的敌人是朋友:苹果欲联手Google干掉Amazon?
  7. 问题探讨:Q-plate的前后翻转是否会对结果有影响
  8. 图像特征:方向梯度直方图 HOG
  9. 分享一些免费调用的API接口
  10. 软件开发版本号定义方式