1
题目:Debiasing Graph Neural Networks via Learning Disentangled Causal Substructure
2
题目:Revisiting Graph Contrastive Learning from the Perspective of Graph Spectrum
作者:Nian Liu, Xiao Wang, Deyu Bo, Chuan Shi, Jian Pei
图对比学习(GSL)旨在通过增广原始图学得节点表征,目前已得到广泛关注。尽管图增广技术已经得到了很大发展,一些基本问题仍未解决:GCL本质上编码了怎样的信息?不同增广背后是否有统一的准则?如果有,是什么样的准则?这些准则又能带给我们怎样的认知?在本文中,我们通过建立GCL和图谱之间的关系来回答上述问题。通过谱域中的一个实验研究,我们首先发现了GCL的一般增广准则(GAME准则),即两个增广图间,高频部分的差异要大于低频部分的差异。这个准则揭示了图对比学习的本质,让我们能回顾当前图增广机制并以此设计新的图增广策略。之后,我们提出对比不变理论,证明GCL能够学得对比视图间的不变信息。结合GAME准则,我们首次揭示了通过GCL学得的表征本质上编码了低频信息,解释了GCL为什么有效。依据该准则,我们提出插件式的谱图对比学习模型(SpCo),并与当前不同的GCL模型相结合,充分验证了模型的有效性。
3
题目:Uncovering the Structural Fairness in Graph Contrastive Learning
作者:Ruijia Wang, Xiao Wang, Chuan Shi, Le Song
图对比学习 (GCL) 继承了图卷积网络 (GCN) 和对比学习的优势,已成为一种流行的自监督节点表示学习范式。节点表示学习对结构公平性有所要求,即在度低和度高节点上都有良好的性能表现。但最近研究表明,GCN 常对度低节点的预测性能较差,在节点度呈现长尾分布的图上表现出结构不公平。然而,尚未有工作探索 GCL 针对节点度的表现。我们的工作惊喜地发现GCL 方法获得的节点表示在度偏差上已经比 GCN 更公平。为此,我们从理论上证明这种公平性源于GCL社区内集中和社区间分散的特性,这种更加清晰的社区结构使得度低节点远离社区边界。基于理论分析,我们进一步设计了图对比学习模型GRADE,将不同策略应用于度低和度高节点。在各种基准数据集和评测方式下,实验验证了所提出模型的有效性。
长按下图并点击“识别图中二维码”
即可关注北邮 GAMMA Lab 公众号
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...