在《2024-Pattern Recognition(Q1)-Improving Augmentation Consistency for Graph Contrastive Learning》中,针对现有GCL方法中,由于增强方案不一致,难以从原始视图继承图的语义和结构属性,影响增强视图中节点的一致性。具体来说,对原始视图进行随机增强时,由于增强策略的不一致,破坏的原始图的语义和结构性质,导致目标节点在两个不同增强视图中的表示出现不一致问题,从而影响节点分类性能。为解决该问题,文章提出ConGCL,主要对损失函数进行改进。在损失函数中,既考虑了节点之间的语义关系,同时捕获上下文子图表示,挖掘节点的底层一致性关系。为确保增强后的正节点对具有较强的一致性,负节点对具有较弱的一致性,提出增强一致性协议,用于对正样本对一致性的过低估计和负样本对一致性的过高估计进行惩罚。最终得到对比损失函数,更好地捕获了节点的相似度和一致性关系。