
论文笔记
文章平均质量分 93
Sun_victory
这个作者很懒,什么都没留下…
展开
-
论文笔记:Two Heads Are Better Than One Improving Fake News Video Detection by Correlating with Neighbors
短视频平台的普及催生了大量的假新闻视频,它们比文本假新闻具有更强的传播能力。因此,自动检测假新闻视频已成为实践中的一个重要对策。以前的工作通常用多模态信息单独验证每个新闻视频。然而,关于同一事件的不同角度的新闻视频通常被发布在一起,其中包含互补或矛盾的信息,因此可以用来相互评价。为此,我们引入了一种新的实用范例,即跨样本假新闻视频检测,并提出了一种新的框架,邻域增强假新闻视频检测(NEED),它集成了属于同一事件的新视频的邻域关系。原创 2024-12-18 15:51:48 · 1011 阅读 · 0 评论 -
Let Silence Speak Enhancing Fake News Detection with Generated Comments from Large Language Models
假新闻检测对于保护社交媒体用户和维护一个健康的新闻生态系统起着至关重要的作用。在现有的工作中,基于评论的假新闻检测方法在经验上是有希望的,因为评论可以反映用户的意见、立场和情绪,加深模型对假新闻的理解。不幸的是,由于曝光偏差和用户不同的评论意愿,在现实中并不容易获得不同的评论,特别是对于早期检测的场景。如果没有获得“沉默”用户的评论,所感知到的意见可能是不完整的,进而影响新闻的真实性判断。在本文中,我们探讨了寻找替代评论来源的可能性,以保证不同评论的可用性,特别是那些来自沉默用户的评论。原创 2024-12-04 13:51:51 · 636 阅读 · 0 评论 -
论文笔记:Cross-modal Contrastive Learning for Multimodal Fake News Detection
自学论文笔记原创 2024-11-29 14:12:12 · 2493 阅读 · 1 评论 -
论文笔记:Learning Transferable Visual Models From Natural Language Supervision
最先进的计算机视觉系统被训练来预测一组固定的预定的对象类别。这种受限的监督形式限制了它们的通用性和可用性,因为需要额外的标记数据来指定任何其他视觉概念。直接从原始文本中学习关于图像的知识是一种很有前途的选择,它利用了更广泛的监督来源。我们证明了简单的训练前任务,预测哪个标题与哪个图像是一种有效的和可伸缩的方法,从互联网收集的4亿(图像,文本)数据集学习SOTA图像表示。在预训练后,自然语言被用来参考学习到的视觉概念(或描述新的概念),使模型zero-shot转移到下游任务。原创 2024-11-15 16:00:16 · 972 阅读 · 0 评论 -
论文笔记:BERT Pre-training of Deep Bidirectional Transformers for Language Understanding
语言模型预训练已被证明对改善许多自然语言处理任务是有效的,现有有两种策略可以将预先训练好的语言表示应用到下游任务中:基于特征的策略和微调策略。这两种方法在训练前具有相同的目标函数,它们使用单向语言模型来学习一般语言表示。作者认为,目前的技术限制了预训练表示的能力,特别是对于微调方法。主要的限制是标准语言模型是单向的,这限制了在预训练过程中可以使用的架构的选择。在问题回答中,从两个方向合并上下文是至关重要的。原创 2024-11-15 10:59:10 · 1755 阅读 · 0 评论 -
论文笔记:GAMC: An Unsupervised Method for Fake News Detection Using Graph Autoencoder with Masking
论文笔记原创 2024-10-26 20:08:27 · 755 阅读 · 1 评论