现有的limitation: 被选择的样本不能利用所有的数据的信息,尤其是标签 被破坏的情况。
作者的novelties:DualGraph 捕获了标签之间的structural relations,包括两个level:instance-level,distribution-level。实例层面利用实例的相似性表征样本的类别,分布层面描述每个sample和其他sample的实例相似度分布。
通过instance similarity的分布来优化instance-level的关系。
训练了两个网络,在reasoning phase,利用distribution 的信息在GNN 中传播来纠正破坏的标签。在classification phase,利用重建的instance-level的graph去产生可靠的预测。
作者认为distribution-level的关系更robust,网络把它作为监督的信号来refine instance-level的相似度。设计了end-to-end的paradigm,counteract noise并且给出了可靠的预测。训练了两个GNN,并且有一个joint 的loss,包括classifier loss和distribution loss。并且使用joint loss来给边添加权重:enhance positive samples ,weaken negative examples。
Noise-cleaning methods have been criticized for removing too many instances or keeping mislabeled instances. 会选错
sample-selection methods aim to identif