
论文笔记
文章平均质量分 92
aaa小葵
这不是bug,这是future
展开
-
模型意识对比学习:摆脱训练中的一致性-容忍度困境
温度参数 τ 的设置会影响模型性能如果 τ 太小,模型会对训练不足的阶段施加过大的惩罚,导致难以区分潜在阳性样本,虽然模型的均匀性会变好但是容忍性会下降如果 τ 太大,有助于探索语义结构,对潜在阳性样本的容忍度增加,但是均匀性会下降体现在公式上:负样本xj上的惩罚权重分布为Pij,fi和gj是样本的特征表示,K是正样本的数量,τ是温度参数,此公式表明,对于每个负样本,其惩罚权重取决于它与某个正样本之间的相似度(由特征表示的点积计算得出),并且所有负样本的惩罚权重之和归一化显然,它有温度系数控制。原创 2024-08-14 22:26:05 · 199 阅读 · 0 评论 -
如何改进基于图的协同过滤中的表示对齐和一致性?How to Improve Representation Alignment and Uniformity in Graph-based CF?
之前研究中DirectAU是自监督学习,虽然有对齐和一致性的优势,但由于依赖于训练数据的特点,可能会导致模型过拟合,同时DirectAU严格最小化联合损失,这会引起过度的噪声转移,影响泛化性能。因此提出 AU+ 这种可以从更加普适的角度学习特征表示,不易受限于训练数据的特点,从而提高模型在新任务或数据上的泛化性能。原创 2024-07-25 21:53:08 · 1017 阅读 · 0 评论 -
通过超球层上的对齐和一致性来理解对比表示学习
对比表征学习在实践中取得显著成就,其中对比损失是对比表征学习的核心部分,直接定义了该如何比较数据样本来进行表征学习,因此,本文深入研究对比损失后,提出了对比损失的两个性质: - 对齐性——缩小正样本距离,增大负样本距离 - 一致性——归一化后在超球体上分布均匀性作者证明了对比学习也正是因为这两个性质才有较好效果的,本文就这两个性质展开研究原创 2024-07-25 13:51:12 · 1214 阅读 · 0 评论 -
SimGCL和XSimGCL
传统的SGL(图自监督学习)使得模型可以自行发掘任务特征,解决了数据稀疏和长尾分布的问题,SGL采用节点dropout、边dropout和随机游走三种方式对图结构进行扰动(图增强)进行对比学习,可以有效提高性能SGL主要解决传统推荐系统面临的数据稀疏和长尾分布问题。通过在图结构上进行数据增强,并结合对比学习机制,SGL能够有效提升模型的表征学习能力,从而改善推荐性能。原创 2024-07-23 17:44:50 · 1038 阅读 · 0 评论 -
MF(推荐系统的矩阵分解技术)论文笔记
推荐系统的可以为用户提供更为准确的个性化推荐,对比传统的,矩阵分解技术可以纳入更多信息,如和近邻技术:基于用户或物品之间的相似性进行推荐,当用户之间已有评价计算出两个用户爱好类似,就将a用户的其他物品推荐给b,在实际推荐计算时不再使用大矩阵,而是使用分解得到的两个小矩阵。原创 2024-04-27 09:12:37 · 2086 阅读 · 0 评论