自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 论文笔记:Reinforced Adaptive Knowledge Learning for Multimodal Fake News Detection

如今,由于假新闻的广泛传播可能会引起不利的社会影响,检测多模式假新闻已成为人们最关注的问题。传统的方法通常侧重于捕捉在多模态内容中的语言和视觉语义,这并不能有效地区分高度细致的制作水平。最近,外部知识被引入,以提供有价值的背景事实作为补充,以促进新闻检测。然而,现有的知识增强工作通过静态实体嵌入直接合并了所有的知识上下文,从而导致了潜在的噪声和与内容无关的知识。此外,知识实体的集成使得很难对多模态语义和知识实体之间复杂的相关性进行建模。

2025-03-10 16:37:59 594 1

原创 论文笔记:Two Heads Are Better Than One Improving Fake News Video Detection by Correlating with Neighbors

短视频平台的普及催生了大量的假新闻视频,它们比文本假新闻具有更强的传播能力。因此,自动检测假新闻视频已成为实践中的一个重要对策。以前的工作通常用多模态信息单独验证每个新闻视频。然而,关于同一事件的不同角度的新闻视频通常被发布在一起,其中包含互补或矛盾的信息,因此可以用来相互评价。为此,我们引入了一种新的实用范例,即跨样本假新闻视频检测,并提出了一种新的框架,邻域增强假新闻视频检测(NEED),它集成了属于同一事件的新视频的邻域关系。

2024-12-18 15:51:48 986 1

原创 论文笔记:Natural Language-centered Inference Network for Multi-modal Fake News Detection

互联网上带有图片和文本的假新闻的激增已经引发了广泛的关注。现有的研究在跨模态信息交互和融合方面做出了重要贡献,但未能从根本上解决新闻图像、文本和新闻相关外部知识表征之间的模态差距。在本文中,我们提出了一种新的以自然语言为中心的推理网络(NLIN)用于多模态假新闻检测,通过将多模态新闻内容与自然语言空间对齐,并引入一种编码解码器架构来充分理解新闻。特别地,我们通过将新闻图像和与新闻相关的外部知识转换为纯文本内容,将多模式的新闻内容统一为文本模式。

2024-12-05 20:01:06 1064 1

原创 Let Silence Speak Enhancing Fake News Detection with Generated Comments from Large Language Models

假新闻检测对于保护社交媒体用户和维护一个健康的新闻生态系统起着至关重要的作用。在现有的工作中,基于评论的假新闻检测方法在经验上是有希望的,因为评论可以反映用户的意见、立场和情绪,加深模型对假新闻的理解。不幸的是,由于曝光偏差和用户不同的评论意愿,在现实中并不容易获得不同的评论,特别是对于早期检测的场景。如果没有获得“沉默”用户的评论,所感知到的意见可能是不完整的,进而影响新闻的真实性判断。在本文中,我们探讨了寻找替代评论来源的可能性,以保证不同评论的可用性,特别是那些来自沉默用户的评论。

2024-12-04 13:51:51 613

原创 论文笔记:Cross-modal Contrastive Learning for Multimodal Fake News Detection

自学论文笔记

2024-11-29 14:12:12 2362 2

原创 MarkDown语法

自学总结网上现有markdown用法,自用

2024-11-29 10:27:29 1791

原创 论文笔记:Learning Transferable Visual Models From Natural Language Supervision

最先进的计算机视觉系统被训练来预测一组固定的预定的对象类别。这种受限的监督形式限制了它们的通用性和可用性,因为需要额外的标记数据来指定任何其他视觉概念。直接从原始文本中学习关于图像的知识是一种很有前途的选择,它利用了更广泛的监督来源。我们证明了简单的训练前任务,预测哪个标题与哪个图像是一种有效的和可伸缩的方法,从互联网收集的4亿(图像,文本)数据集学习SOTA图像表示。在预训练后,自然语言被用来参考学习到的视觉概念(或描述新的概念),使模型zero-shot转移到下游任务。

2024-11-15 16:00:16 957 1

原创 论文笔记:BERT Pre-training of Deep Bidirectional Transformers for Language Understanding

语言模型预训练已被证明对改善许多自然语言处理任务是有效的,现有有两种策略可以将预先训练好的语言表示应用到下游任务中:基于特征的策略和微调策略。这两种方法在训练前具有相同的目标函数,它们使用单向语言模型来学习一般语言表示。作者认为,目前的技术限制了预训练表示的能力,特别是对于微调方法。主要的限制是标准语言模型是单向的,这限制了在预训练过程中可以使用的架构的选择。在问题回答中,从两个方向合并上下文是至关重要的。

2024-11-15 10:59:10 1739 2

原创 论文笔记:GAMC: An Unsupervised Method for Fake News Detection Using Graph Autoencoder with Masking

论文笔记

2024-10-26 20:08:27 714 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除