论文
文章平均质量分 56
一些好的论文或在看论文中出现的一些问题
想成为配环境大佬
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
S2GAE论文阅读
CCFB类,2023年的论文,与MaskGAE的一些创新点很像感觉里面的有些句子没解释清楚,而且也没引用,看的一头雾水,我觉得这篇论文最创新的就是从损失函数公式的角度把对比学习与生成学习统一起来了,而且模型的性能提升也不算很高,某一领域不突出,但所有应用场景表现很平均的好(“中庸之道”),在大规模图上表少的也不错。原创 2025-02-24 14:57:45 · 527 阅读 · 0 评论 -
AUGMAE阅读
又是看了好几天,别拖延了!!个人感觉这篇论文的模型性能提升不是很高,而且作为baseline的模型也没有其他论文里多,实验过程直接说按照GraphMAE的方法,而且也没有做链接预测任务,但新增了图分类任务。原创 2025-02-22 20:07:50 · 194 阅读 · 0 评论 -
Bandana论文阅读
碎碎念: 读完这个WWW上的论文,我只能说nb,17页,越看越觉得Bandana模型好,而且提出了一种新的评估方法,让那些本来链接预测的结果很好的都下降了好多:细节决定成败!!!回顾以前看论文就看的很粗略不记笔记,导致啥也没学到。原创 2025-02-15 14:51:11 · 635 阅读 · 0 评论 -
写综述小论文的反思
这几天综述审稿意见下来了,张眼就是改论文,同时也出现了很多问题,师姐真的好好!!!!!!又温柔又细心。原创 2025-02-09 21:08:23 · 232 阅读 · 0 评论 -
能量模型EBM(通俗理解)
假设你是一个“相亲红娘”,你的任务是给单身男女配对。想象成一个“评分系统”或者“山谷地形图”,它给输入数据和输出数据的匹配程度打一个分(能量值)。EBM 不直接输出类别概率或数值预测,而是优化一个能量函数,使得正确的 y 具有更低的能量值。而传统的神经网络,相当于直接告诉你:“这个人适合谁”——不去衡量匹配度,而是直接给出答案。这个“分数”越低,说明这对数据的匹配程度越好,越可能是正确的。你的目标就是让真正匹配的情侣得分更低,不合适的得分更高。想象一下,你站在一片起伏的山谷地形中,你的目标是找到。原创 2025-02-05 11:48:00 · 1617 阅读 · 2 评论 -
流式学习(简易版)
流形学习研究高维数据中的低维结构,主要用于降维、可视化和数据建模。许多现实世界数据本质上具有低维流形结构(如图像、语音、社交网络)。常见算法:Isomap、LLE、t-SNE、UMAP 等,主要用于非线性降维。深度学习中的应用GNN、Autoencoders、对比学习、GAN/VAE等模型都利用流形学习的思想来学习更好的数据表示。原创 2025-02-04 12:36:37 · 945 阅读 · 0 评论 -
GraphMAE2
提出了很多我不知道的先验前提,还是得仔细看啊。这篇论文因为过年的缘故,沥沥淅淅的看了一周。原创 2025-02-01 12:39:37 · 404 阅读 · 0 评论 -
MaskGAE论文阅读
本来很不理解计算机专业为啥还要做实验(以前觉得实验式生物化学物理那种),其实从这篇论文中可以看到,从实验结果得出来了很多结论,而且实验结果也进一步论证了作者的推理。:一篇论文看四天,效率也没谁了(捂脸) 看一点忘一点,虽然在本子上有记录,但还是忘,下次看一点在博客上记一点启发。原创 2025-01-24 19:58:21 · 716 阅读 · 0 评论 -
论文GraphMAE
图自监督学习的目标是为了获得更好的表示,即他是应用于上游任务,主要训练更好的encoder,当然decoder也得设计完备。对症下药方式,从生成式方法的四个组件分别解释,并分析了对比方法的不足,以前GAE方法的不足。最近又把GraphMAE看了一遍,和一开始啥都不懂抹黑的看,这遍看有了更多的收获和反思。图生成式方法的四个关键点:掩码,encoder,decoder,损失函数。论文中很多东西第一遍都没看到,一定要仔细的看!借鉴他的文章是如何展开的。公开代码的复现一直没有到他论文中显示的正确率那样,不稳定。原创 2025-01-20 16:08:21 · 378 阅读 · 0 评论 -
Zotera获取中文元数据失败
实在不行从知网上进行ip登录(先个人登录,再ip登录)原创 2024-04-14 14:50:58 · 612 阅读 · 1 评论
分享