2021-AAAI-KCGN-面向社会推荐的知识感知耦合图神经网络
标题:Knowledge-aware Coupled Graph Neural Network for Social Recommendation
翻译:《面向社会推荐的知识感知耦合图神经网络》
模型:KCGN
源代码:Github
数据集: Epinions | Yelp | E-Commerce
对比算法: PMF | TrustMF | SMAN | EATNN | DiffNet | GraphRec | NGCF+S | Danser | LR-GCCF | DGRec | KGAT
摘要
社会推荐任务的目的是结合用户之间的社会关系来预测用户对项目的偏好,从而缓解协同过滤的稀疏性问题。虽然最近许多算法改进证明了基于神经网络的社会推荐系统
的有效性,但几个重要的挑战还未得到很好的解决:
(i)大多数模型只考虑用户的社会联系,而忽略项目间的相互依赖的知识
;
(ii)大多数现有解决方案都是针对单一类型的用户项交互而设计的,因此无法捕获交互异构性
;
(iii)在许多具有社会意识的推荐技术中,对用户项交互的动态性质
的探索较少。
为了应对上述挑战,本研究提出了一种知识感知耦合图神经网络(KCGN),该网络将跨项目和用户的相互依赖的知识联合注入到推荐框架中。KCGN利用全局图形结构感知
的交互信息,实现高阶用户和项目关系编码。此外,我们还通过捕获动态
多类型
用户项交互模式的能力进一步增强了KCGN。对真实数据集的实验研究表明,在各种环境下,我们的方法对许多强基线都是有效的。源代码可从以下网址获得:https://github. com/xhcdream/KCGN。
问题定义
为了捕获多类型用户-项目交互信号,我们定义一个多类型交互张量如下:
定义1 多类型交互张量 X X X
- X ∈ R I × J × K X \in \mathbb{R}^{I \times J \times K} X∈RI×J×K: 三维张量,表示用户和项目之间的不同类型的交互。其中:
- K K K:张量以K为索引,K表示交互类型的数量(页面浏览、购买或喜欢、不喜欢)。
- x i j k x^k_{ij} xijk:构成元素,表示 X X X中的每个元素,若 u i u_i ui 和 v j v_j vj存在交互,值为1,否则为0。
- T ∈ R I × J × K T \in \mathbb{R}^{I \times J \times K} T∈RI×J×K: t i j k t^k_{ij} tijk记录每个交互信息 x i j k x^k_{ij} xijk的时间戳。
定义2 用户社交图 G u G_u Gu
- G u = { U , E u } G_u=\{ U, E_u \} Gu={U,Eu}
- e i , i ′ e_{i, i^\prime} ei,i′:构成元素,表示用户 u i u_i ui 和 u i ′ u_i^\prime ui′ 之间存在社会关系
定义3 项目间依赖图 G v G_v Gv
- G v = { v j , e j , j ′ v j ′ } G_v=\{ v_j, e_{j, j^\prime} v_j^\prime \} Gv={vj,ej,j′vj′}:构成元素,三元组
- e j , j ′ e_{j, j^\prime} ej,j′:表示用户 v j v_j vj 和 v j ′ v_j^\prime vj′ 之间存在依赖关系,比如 v j v_j vj 和 v j ′ v_j^\prime vj′属于同一种产品目录,具有相似的功能;或者在相同的交互类型k下,被相同的用户使用。
任务描述:我们将本文研究的推荐任务描述为:
- 输入: X ∈ R I × J × K , G u , G v X \in \mathbb{R}^{I \times J \times K},G_u,G_v X∈RI×J×K,Gu,Gv
- 输出:能够有效预测未来用户-物品交互的预测功能
模型
多类型交互模式建模
为了对多类型协作关系进行编码,我们提出了一个基于消息传递范式
的关系感知图神经体系结构(如图1所示),以使KCGN能够捕获不同类型的用户-项目交互的专用模式。具体地说,给定多类型相互作用张量 X X X,我们首先构造一个多类型关系图 G m G_m Gm,表示与特定类型的 项目颠覆 的交互异构性 v j → ( v j 1 , … , v j k , … , v j K ) v_j→(v^1_j,…,v^k_j,…, v^K_j) vj→(vj1,…,vjk,…,vjK),其中K为交互类型的数量。 u i u_i ui和 v j k v^k_j vjk之间的每条边表示与第k种类型对应的交互。然后,在我们的多类型图 G m = ( V m , E m ) G_m= (V_m,E_m) Gm=(Vm,Em)中有 ( I + J ⋅ K ) (I + J·K) (I+J⋅K)个顶点,其中, V m = U ∪ V ′ V_m= U∪V^\prime Vm=U∪V′,以及 v j k ∈ V ′ v^k_j \in V^\prime vjk∈V′。在这里, V ′ V^\prime V′是新类型感知的项目集合。
Markdown将文本转换为 HTML。
信息构建阶段。我们首先在用户顶点 u i u_i ui和他/她的交互类型特定的项目顶点 v j k v^k_j vjk之间生成消息如下:
m u i ← v j k = γ ( h v j k , ρ i , j k ) ; m v j k ← u i = γ ( h u i , ρ i , j k ) ; (1) m_{u_i \leftarrow v^k_j}= \gamma(\mathbf{h}_{v^k_j} ,\rho^k_{i,j}); m_{v^k_j \leftarrow u_i}= \gamma(\mathbf{h}_{u_i} ,\rho^k_{i,j}); \tag{1} mui←vjk=γ(hvjk,ρi,jk);mvjk←ui=γ(hui,ρi,jk);(1)
其中,
- γ ( ⋅ ) \gamma(·) γ(⋅)表示对输入特征嵌入 h v j k ∈ R ( J ⋅ K ) × d , h u i ∈ R I × d \mathbf{h}_{v^k_j} \in \mathbb{R}^{(J·K)\times d}, \mathbf{h}_{u_i} \in \mathbb{R}^{I\times d} hvjk∈R(J⋅K)×d,hui∈RI×d的信息编码函数。
- ρ i , j k \rho^k_{i,j} ρi,jk是将传播影响随节点度归一化的衰减因子(Chen et al. 2020b),比如 ρ = 1 ∣ N i ∣ ∣ N j k ∣ \rho=\frac1{\sqrt{|N_i||N^k_j|}} ρ=∣Ni∣∣Njk∣ 1,
- 其中 N i N_i Ni定义为用户 u i u_i ui相邻节点的数量,
- N j k N^k_j Njk代表关系类型 k k k中项目 v j v_j vj的关联用户节点的数量。
因此,可以构建消息如下:
m u i ← v j k = 1 ∣ N i ∣ ∣ N j k ∣ ( h v j k ⋅ W 1 ) (2) m_{u_i \leftarrow v^k_j}= \frac1{\sqrt{|N_i||N^k_j|}}( \mathbf{h}_{v^k_j} \cdot \mathbf{W}_1 )\tag{2} mui←vjk=∣Ni∣∣Njk∣ 1(hvjk⋅W1)(2)
其中 W 1 ∈ R d × d \mathbf{W}_1 \in \mathbb{R}^{d×d} W1∈Rd×d为权重矩阵。对用户 u i u_i ui和特定类型的项目 v j k v^k_j vjk的消息传播,我们应用类似的操作。
时间上下文编码方案。受时间信息建模的推荐技术的启发(Sun et al. 2019;Huang et al. 2019),在我们的框架中,我们通过引入时间上下文编码方案来建模不同类型用户交互的动态依赖关系,允许发生在不同时间戳的用户-物品交互相互交织。基于Transformer架构中的位置编码算法(Vaswani et al. 2017;Sun et al. 2019;Wu et al. 2020),我们将个体交互 x i , j k x^k_{i,j} xi,jk的时间戳 t i , j k t^k_{i,j} ti,jk映射单独的时间段: T ( t i , j k ) T (t^k_{i, j}) T(ti,jk)。我们利用正弦函数
生成 G m G_m Gm中 e i , j k ∈ E m e^k_{i,j}∈E_m ei,jk∈Em的相对时间嵌入:
b T ~ ( t i , j k ) , 2 i = s i n ( T ~ ( t i , j k ) / 100 0 2 i d ) b T ~ ( t i , j k ) , 2 i + 1 = s i n ( T ~ ( t i , j k ) / 100 0 2 i + 1 d ) (3) \mathbf{b}_{\tilde{T} (t^k_{i, j}),2i}= sin(\tilde{T} (t^k_{i, j})/1000^{\frac{2i}d}) \\ \mathbf{b}_{\tilde{T} (t^k_{i, j}),2i+1}= sin(\tilde{T} (t^k_{i, j})/1000^{\frac{2i+1}d}) \tag{3} bT~(ti,jk),2i=sin(T~(ti,jk)/1000d2i)bT~(ti,jk),2i+1=sin(T~(ti,jk)/1000d2i+1)(3)
其中, ( 2 i ) (2i) (2i)和 ( 2 i + 1 ) (2i+1) (2i+1)分别表示嵌入 b T ~ ( t i , j k ) \mathbf{b}_{\tilde{T} (t^k_{i, j})} bT~(ti,jk)中具有偶数和奇数位置的索引。
高顺序消息聚合阶段。我们将用户 u i u_i ui和项目 v i , j k v^k_{i,j} vi,jk间的传播消息、它们间交互边 e i , j k e^k_{i,j} ei,jk上的时间信息 b T ~ ( t i , j k ) \mathbf{b}_{\tilde{T} (t^k_{i, j})} bT~(ti,jk),加入到我们的信息传播范式中,具体公式如下:
h u i l + 1 = φ ( m u i ← u i ( l ) + ∑ ( j , k ) ∈ N u i m u i ← v j k ( l ) ) = φ ( 1 ∣ N u i ∣ h u i ( l ) W 2 ( l ) + ∑ ( j , k ) ∈ N u i 1 ∣ N v i k ∣ h v i k ( l ) ⊕ b T ~ ( t i , j k ) W 1 ( l ) ) (4) \mathbf{h}^{l+1}_{u_i} = \varphi(m^{(l)}_{u_i \leftarrow u_i}+\sum_{(j,k)\in N_{u_i}}{m^{(l)}_{u_i \leftarrow v^k_j}}) = \varphi( \frac1{|N_{u_i}|} \mathbf h^{(l)}_{u_i} \mathbf W^{(l)}_2 +\sum_{(j,k)\in N_{u_i}}{\frac1{|N_{v^k_i}|} \mathbf h^{(l)}_{v^k_i} \oplus \mathbf{b}_{\tilde{T} (t^k_{i, j})} \mathbf W^{(l)}_1} )\tag{4} huil+1=φ(mui←ui(l)+(j,k)∈Nui∑mui←vjk(l))=φ(∣Nui∣1hui(l)W2(l)+(j,k)∈Nui∑∣Nvik∣1hvik(l)⊕bT~(ti,jk)W1(l))(4)
其中
- φ ( ⋅ ) \varphi (\cdot) φ(⋅)表示用于执行转换的
LeakyReLU函数
。 - m u i ← u i ( l ) m^{(l)}_{u_i \leftarrow u_i} mui←ui(l)是带有权重矩阵 W 2 ( l ) ∈ R d × d \mathbf W^{(l)}_2∈\mathbb R^{d×d} W2(l)∈Rd×d的
自传播消息
。 - ⊕ \oplus ⊕表示元素相加。
- l l l为 L L L图层的索引。
我们最终通过以下连接操作 ∥ \| ∥,生成用户/项目嵌入(即, h u i ∗ , h v i , j k ∗ \mathbf h^∗_{u_i}, \mathbf h^∗_{v^k_{i,j}} hui∗,hvi,jk∗),具体公式如下:
h u i ∗ = ( h u i ( 0 ) ∥ h u i ( 1 ) ∥ ⋯ ∥ h u i ( L ) ) h v j , k ∗ = ( h j , k ( 0 ) ∥ h v j , k ( 1 ) ∥ ⋯ ∥ h v j , k ( L ) ) (5) \mathbf h^∗_{u_i}=(\mathbf h^{(0)}_{u_i} \| \mathbf h^{(1)}_{u_i} \| \cdots \| \mathbf h^{(L)}_{u_i}) \\ \mathbf h^∗_{v_{j,k}}=(\mathbf h^{(0)}_{j,k} \| \mathbf h^{(1)}_{v_{j,k}} \| \cdots \| \mathbf h^{(L)}_{v_{j,k}}) \tag{5} hui∗=(hui(0)∥hui(1)∥⋯∥hui(L))hvj,k∗=(hj,k(0)∥hvj,k(1)∥⋯∥hvj,k(L))(5)
我们用一个门闸机制
(Ma, Kang, and Liu 2019)归纳所有项目的子节点嵌入 h v j , k ∗ ( k ∈ [ 1 , … , K ] ) \mathbf h^∗_{v_{j,k}} (k \in [1, \dots , K]) hvj,k∗(k∈[1,…,K]),来生成总结表示 h v j ∗ \mathbf h^∗_{v_{j}} hvj∗,以区分类型特定交互模式的重要性。
知识感知耦合图神经模块
为了将用户和项目间依赖的知识
联合注入到我们的用户偏好建模中,我们开发了一个知识感知的耦合图神经网络,使交互信息学习
和图表示范式
之间的协作成为可能。虽然现有技术对图结构信息建模已经付出了很多努力,但它们在捕获局部和全局图子结构感知
方面的能力有限(Velickovic et al. 2019),例如用户和特定项目的社会/知识依赖信息和跨用户/项目的高阶关系。KCGN采用双阶段图学习范式
(如图2所示)。
局部关系结构建模。我们首先学习用户和特定项目的嵌入 ( z u i , z v j ) (\mathbf z_{u_i}, \mathbf z_{v_j}) (zui,zvj),来保存包括用户社交图 G u G_u Gu和项目间依赖图 G v G_v Gv的本地连接信息,利用以下基于知识的更新函数 ( z u i 0 = h u i ∗ , z v j 0 = h v j ∗ ) (\mathbf z ^0_{u_i}=\mathbf h^*_{u_i},\mathbf z ^0_{v_j}=\mathbf h^*_{v_j}) (zui0=hui∗,zvj0=hvj∗):
[ z u 1 ( l + 1 ) , … , z u I ( l + 1 ) ] = φ ( [ z u i ( l ) , … , z u I ( l ) ] ⋅ η ( G u ) ) [ z v 1 ( l + 1 ) , … , z v J ( l + 1 ) ] = φ ( [ z v i ( l ) , … , z v J ( l ) ] ⋅ η ( G v ) ) (6) [\mathbf z^{(l+1)}_{u_1}, \dots ,\mathbf z^{(l+1)}_{u_I}] =\varphi([\mathbf z^{(l)}_{u_i}, \dots ,\mathbf z^{(l)}_{u_I}] \cdot \eta(G_u)) \\ [\mathbf z^{(l+1)}_{v_1}, \dots ,\mathbf z^{(l+1)}_{v_J}] =\varphi([\mathbf z^{(l)}_{v_i}, \dots ,\mathbf z^{(l)}_{v_J}] \cdot \eta(G_v)) \tag{6} [zu1(l+1),…,zuI(l+1)]=φ([zui(l),…,zuI(l)]⋅η(Gu))[zv1(l+1),…,zvJ(l+1)]=φ([zvi(l),…,zvJ(l)]⋅η(Gv))(6)
其中 η ( ⋅ ) \eta(\cdot) η(⋅) 表示 G u G_u Gu与 G v G_v Gv之间的相邻关系,采用对称规范化策略
进行相邻用户/项的信息聚合,如: η ( G u ) = D ^ v − 1 2 A ^ v D ^ − 1 2 \eta(G_u)=\hat \mathbf D^{-\frac1 2}_v \hat \mathbf A_v \hat \mathbf D^{-\frac1 2} η(Gu)=D^v−21A^vD^−21。因此, A ^ v \hat \mathbf A_v A^v是单位矩阵 I v \mathbf I_v Iv和邻边矩阵 A v \mathbf A_v Av,以纳入信息的自传播(Chen et al. 2020b)。
在这个图学习范式
中,我们的目标是将用户社交图和项目关系图上的局部和全局级别的关系结构注入到我们学习的用户/项目表示中。与现有的图神经网络方法不同(Velickovic et al. 2019;Xu et al. 2020),对局部特征嵌入和单个全局表示之间的相互关系进行了建模,我们通过考虑连接图的子结构(例如,所有用户的整个社会关系可能由不同的连接子图 G u ′ G^\prime_u Gu′)。特别是,我们首先对特定节点的嵌入应用平均池
,生成一个融合图级表示 f G u ′ , f G v ′ ∈ R d \mathbf f_{G^\prime_u}, \mathbf f_{G^\prime_v \in \mathbb R^d} fGu′,fGv′∈Rd。
对于节点图中成对关系,我们设计了基于鉴别器的神经交互信息评估器
D ( x , y ) \mathcal D(x, y) D(x,y) ,以提供抽样对的概率分数。具体来说,我们生成正样本
( z u i , f G u ′ ) , ( z v j , f G v ′ ) (\mathbf z_{u_i},\mathbf f_{G^\prime_u}), (\mathbf z_{v_j},\mathbf f_{G^\prime_v}) (zui,fGu′),(zvj,fGv′), (zvj,成品?V),以及负样本
( z ~ u i , f G u ′ ) , ( z ~ v j , f G v ′ ) (\tilde \mathbf z_{u_i},\mathbf f_{G^\prime_u}), (\tilde \mathbf z_{v_j},\mathbf f_{G^\prime_v}) (z~ui,fGu′),(z~vj,fGv′)。此处, z ~ u i , z ~ v j \tilde \mathbf z_{u_i},\tilde \mathbf z_{v_j} z~ui,z~vj都是通过节点变换随机选取的
,生成错位节点图
的成对关系。
由于交互信息最大化中交叉熵
的合理性(Wang et al. 2020),我们定义噪声对比的知识感知损失函数
L β \mathcal L_\beta Lβ 如下:
L β = − λ 1 N p o s u + N n e g u ( ∑ i = 1 N p o s u τ ( z u i , f G u ′ ) ⋅ log σ ( z u i ⋅ f G u ′ ) + ∑ i = 1 N n e g u τ ( z ~ u i , f G u ′ ) ⋅ log [ 1 − σ ( z ~ u i ⋅ f G u ′ ) ] ) − λ 2 N p o s v + N n e g v ( ∑ j = 1 N p o s v τ ( z v j , f G v ′ ) ⋅ log σ ( z v j , f G v ′ ) + ∑ j = 1 N n e g v τ ( z ~ v j , f G v ′ ) ⋅ log [ 1 − σ ( z ~ v j , f G v ′ ) ] ) (7) \mathcal L_\beta= -\frac {\lambda_1} {N^u_{pos}+N^u_{neg}} \bigg( \sum^{N^u_{pos}}_{i=1}\tau(\mathbf z_{u_i},\mathbf f_{G^\prime_u}) \cdot \log \sigma(\mathbf z_{u_i} \cdot \mathbf f_{G^\prime_u}) +\sum^{N^u_{neg}}_{i=1} \tau(\tilde \mathbf z_{u_i},\mathbf f_{G^\prime_u}) \cdot \log[1- \sigma(\tilde \mathbf z_{u_i} \cdot \mathbf f_{G^\prime_u})] \bigg) \\ -\frac{\lambda_2}{N^v_{pos}+N^v_{neg}} \bigg(\sum^{N^v_{pos}}_{j=1} \tau(\mathbf z_{v_j},\mathbf f_{G^\prime_v}) \cdot \log \sigma(\mathbf z_{v_j},\mathbf f_{G^\prime_v})+ \sum^{N^v_{neg}}_{j=1} \tau(\tilde \mathbf z_{v_j},\mathbf f_{G^\prime_v}) \cdot \log [1-\sigma(\tilde \mathbf z_{v_j},\mathbf f_{G^\prime_v})] \bigg) \tag{7} Lβ=−Nposu+Nneguλ1(i=1∑Nposuτ(zui,fGu′)⋅logσ(zui⋅fGu′)+i=1∑Nneguτ(z~ui,fGu′)⋅log[1−σ(z~ui⋅fGu′)])−Nposv+Nnegvλ2(j=1∑Nposvτ(zvj,fGv′)⋅logσ(zvj,fGv′)+j=1∑Nnegvτ(z~vj,fGv′)⋅log[1−σ(z~vj,fGv′)])(7)
其中
- N p o s u / N p o s v , N n e g u / N n e g v N^u_{pos}/N^v_{pos}, N^u_{neg}/N^v_{neg} Nposu/Nposv,Nnegu/Nnegv分别表示在子图 G u ′ , G v ′ G^\prime_u,G^\prime_v Gu′,Gv′上抽样的正负实例。
- τ ( ⋅ ) \tau(\cdot) τ(⋅)是一个
指示函数 indicator function
,如 τ ( z v j , f G v ′ ) = 1 , τ ( z ~ v j , f G v j ) = 1 \tau (\mathbf z_{v_j}, \mathbf f_{G^\prime_v}) = 1, \tau (\tilde \mathbf z_{v_j}, \mathbf f _{G_{v_j}}) = 1 τ(zvj,fGv′)=1,τ(z~vj,fGvj)=1对应正负对实例。 - λ 1 , λ 2 λ_1,λ_2 λ1,λ2是
平衡参数
。
我们的目标是最小化 L β \mathcal L_\beta Lβ (等价于最大化交互信息),以共同保留特定节点的用户/物品特征和全局图级依赖性。
模型优化
我们定义了损失 L \mathcal L L,它包括
(i) 多类型用户-项目交互编码;
(ii) 学习知识感知型用户-用户和项目-项目相互依赖关系。
特别地, L \mathcal L L 将推荐任务中广泛采用的 成对发生 的BRP
损失(Wang et al. 2019c),与互信息最大化范式相结合如下:
L = ∑ ( i , j + , j − ) ∈ O − ln σ ( x ^ i , j + − x ^ i , j − ) + λ ∥ Θ ∥ 2 + L β (8) \mathcal L =\sum_{(i,j^+,j^-) \in O} - \ln \sigma(\hat x_{i,j^+} - \hat x_{i,j^-}) +\lambda \| \Theta \|^2+ \mathcal L_\beta \tag{8} L=(i,j+,j−)∈O∑−lnσ(x^i,j+−x^i,j−)+λ∥Θ∥2+Lβ(8)
- 成对训练数据 O = { ( u , j + , j − ) ∣ ( u , j + ) ∈ R + , ( u , j − ) ∈ R − } O=\{(u,j^+,j^-)|(u,j^+) \in \mathcal R^+, (u,j^-) \in \mathcal R^- \} O={(u,j+,j−)∣(u,j+)∈R+,(u,j−)∈R−}( R + , R − R^+, R^- R+,R−分别为观测到的或未观测到的相互作用)。
- x ^ i , j \hat x_{i,j} x^i,j 是计算嵌入 u i u_i ui 和 v j v_j vj 之间的内积,得到的得分。
- Θ \Theta Θ 为可训练参数,
- σ ( ⋅ ) σ(\cdot) σ(⋅) 是sigmoid函数。
- λ λ λ 控制 L 2 L_2 L2 正则化的强度以减缓过拟合。
时间复杂度分析。KCGN 处理用户-用户、用户-项目和项目-项目关系时传递的消息的时间复杂度为 O ( ∣ E ∣ × d ) O(|E| × d) O(∣E∣×d),其中 ∣ E ∣ |E| ∣E∣ 为边数。同时,转换的时间复杂度为 O ( ( I + J ⋅ K ) × d 2 ) O((I + J·K) × d_2) O((I+J⋅K)×d2)。通常,由于信息压缩,第一个术语占主导地位。综上所述,KCGN与目前基于GNN的推荐方法在时间效率上具有可比性。我们的模型仅使用中等内存存储节点嵌入( O ( ( I + J ⋅ K ) × d ) O((I +J·K)×d) O((I+J⋅K)×d)),与现有方法类似。
评估实验
数据集
任务
在本节中,我们在不同的真实世界数据集上进行实验,从以下几个方面评估我们的方法的性能:
- RQ1: KCGN在推荐准确性方面是否始终优于其他基准?
- RQ2: KCGN的变体结合不同的关系编码器的性能如何?
- RQ3: 根据不同的交互作用密度,比较多种算法的预测性能?
- RQ4: 在社会推荐中,表征如何从全局知识感知交叉交互模式的集体编码中受益?
- RQ5: 不同的超参数设置如何影响我们KCGN框架的性能?
- RQ6: KCGN的模型效率如何?
2021-AAAI-KCGN-面向社会推荐的知识感知耦合图神经网络相关推荐
- RetaGNN: 面向整体序列推荐的关系型时态注意图神经网络 WWW2021
ABSTRACT 顺序推荐(SR)是根据用户当前访问的项目为用户准确地推荐项目列表.在新用户不断进入现实世界的同时,一项关键任务是拥有感应式SR,它可以产生用户和物品的嵌入而无需重新培训.考虑到用户与 ...
- 远程监督关系抽取漫谈:结合知识图谱和图神经网络
远程监督关系抽取是一种用知识图谱去对齐朴素文本的标注方法,属于半监督学习算法,自然而然提取特征的时候就会出现很多噪声.比如两个实体之间还有别的关系或者是没有关系,这样的训练数据会对关系抽取器产生影响. ...
- 业界盘点|为什么推荐算法都开始结合图神经网络了?
作者 | 对白 出品 | 对白的算法屋 编者寄语: 本文看完,相信你也能熟练掌握这些基于GNN的推荐模型. 图神经网络(GNN)相信大家也不陌生了,在还没有Graph Embedding之前,节点的属 ...
- 面向交通流预测的时空融合图神经网络
1.文章信息 <Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow Forecasting>.这是北大发表在计算机 ...
- 知识图谱和图神经网络
知识图谱 理论知识 知识图谱嵌入模型 TransE DistMult 知识图谱的抽取与构建 知识图谱工程 知识抽取--实体识别与分类 知识抽取--实体关系抽取与属性补全 知识图谱的推理 常见知识图谱推 ...
- AAAI2021:面向交通流预测的时空融合图神经网络
1.文章信息 <Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow Forecasting>.这是北大发表在计算机 ...
- AAAI 2022 | 同时适用于同质和异质性的图神经网络
©作者 | 庄双双 来源 | MIND Laboratory 论文标题: Powerful Graph Convolutioal Networks with Adaptive Propagation ...
- 知识图谱与图神经网络_biji
图表示学习侧重于图结构的处理.知识图谱嵌入模型和规则学习等更加侧重于语义和逻辑结构特征的学习,更好的知识图谱表示学习方法需要综合利用好语义,逻辑结构的特征学习和图结构的特征学习等多种方法 RGCN: ...
- 会议交流 | 人工智能与机器学习创新峰会 - 知识图谱与图神经网络分会
人工智能与机器学习创新峰会力邀 HBAT 等大厂资深研发专家做分享和技术展望 时间:9月4日下午1:30 地点:浦东海神诺富特大酒店 OpenKG 开放知识图谱(简称 OpenKG)旨在促进中文知识图 ...
最新文章
- 42佳优秀的 Photoshop 按钮制作教程
- apache solr远程代码执行漏洞(cve-2019-0193)
- textfile 属性
- 存clob为空的值_给Oracle数据库中CLOB字段插入空值
- f1 score与f2 score的区别
- fileinput 图片上传
- JAVA Roman to Integer 罗马数转换为int型方法
- Thread.yield()
- mysql on后加and_mysql加入ON和AND to laravel eloquent
- UVA-10817- Headmaster's Headache(状压DP)
- 电大计算机网络模拟题及答案,最新国家开放大学电大本科《计算机网络》期末题库及答案...
- xlinux中实现mdev
- 微软发布 Win11新补丁
- 新托业模拟考试感言—了解一下参加过托业考试前辈们的经验03
- java导出excel 边框不全_POI导出excel,合并单元格后没有边框
- JS写下雨特效,樱花落特效,滑块成功效果
- 前端Web工程师学习路线
- 基于Eureka服务治理的高可用性注册中心搭建
- 魔兽会封python_Python爬取大量数据时,如何防止IP被封?
- 共度鸿蒙什么意思,逐月情缘游戏-逐月情缘手游官网最新版预约 v 1.0-apk3安卓网...
热门文章
- 在线教育真的有必要 在线省钱
- Matlab中求取置信区域
- 记录--对于$off,Exclude 和 Extract的一点理解
- 多媒体视频的添加,声音,开始/暂停,放大...可以引进一些网页上收费的视频,自己这样处理就可以观看
- 数据库基本操作及增删改查示例
- python构建指数平滑预测模型_指数平滑预测法python实现
- 【转】elipse参考
- samba服务器占用端口,SMB 服务器上的 CPU 使用率过高问题
- 新手如何自学PostgreSQL(PG)
- UNIXC002 进程创建,终止,遗言函数