qichaoliu/MSSG-UNet

关于论文中基于注意力的图卷积公式的问题

Opened this issue · 1 comments

大佬,感觉你的论文观点很有创新,有几个问题想请教一下。
1、论文中公式(5)在一般的图卷积公式后面加了可学习的变量B,这样做的目的是什么呢?另外代码中好像没有将B加入,与公式(5)好像不太相符,代码MSSGU.py的GCNLayer_PyG类中定义的self.b是否就是公式中的B呢?但是代码中好像没有将B相加。
2、论文中说图卷积是基于注意力的图卷积,这个该怎么解释呢,个人不是很理解。
感谢大佬

不是大佬,我就一普通民工。
1、那个B就是偏差,卷积中默认自带的bias=True,加不加都行,它不重要。self.b似乎没有用到,应该是遗留的代码没有删掉。
2、注意力的计算方式千奇百怪,但殊途同归,无非是用来度量两组变量间的相关性。文中用的是内积方式计算节点间的相似性(边权重)。做法很简单,但圈内人更喜欢称呼它为“注意力机制”,我只是随大流罢了😂