图神经网络系列讲解及代码实现-GAT 1
为明天去拼:
input_h是【N,in_features】两维的啊?但是在pytorch程序中训练的都是三维的吧【batch_size,N,in_features】,那如果是三维的下面代码需要改哪些啊?
【回复】我也很好奇,这怎么利用dataloader来批量话化训练?
一人一人一人人:
代码里用了一个非常巧妙的方法来完成两个向量的拼接操作。
h.repeat(1, N)相当是把每个向量在维度1复制了N份,类似于(下面数字代表节点的特征向量)
【 1, 1 , ……, 1
2, 2 , ……, 2
……
N, N, ……, N 】
而h.repeat(N, 1)是把当前批次的节点特征在0维度上复制N批(包括原来那批),类似于
【 1,
2,
.,
N,
……
1,
2,
.,
N
】
混沌神石1:
大佬,gat可以用来做动态的链路预测吗?就是输入很多个时间点的图快照包括权重,预测下一个时刻的图,包括节点的特征
清风与鹿55:
也就是说原论文里的||拼接是没有固定格式,只要拼起来维度可以计算即可是吗?
zhangjian294:
计算边权重里的W和加权求和公式里的W不一样吧?
图神经网络 gnn 解读 深度学习 新人UP报到 图注意力