自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(49)
  • 收藏
  • 关注

原创 安装Git(小白也会装)

如果在具有企业管理证书的组织中使用 Git,则将需要使用安全通道。如果你仅使用 Git 来访问公共存储库(例如 GitHub ),或者你的组织不管理自己的证书,那么使用 SSL 后端(它们只是同一协议的不同实现)就可以了。只是用 Git 来访问 Github、GitLab 等网站,选择第一个就行了。这是实验功能,别选,然后安装就好了。到这里,就安装好了,可以运行试一下。后面都 使用默认就好了,然后再默认安装,直到这里。1.依次点击(红框)

2025-02-26 10:52:52 280

原创 使用open-webui调用大模型

本机部署llm方法案例

2025-02-25 23:14:01 843

原创 ollama安装包(windows)

好多同学登录ollama官网下载安装包时,由于网络问题无法连接github,因此我上传了windows系统的包装包,并简单写了linux遇到相同问题的解决办法,供需要的同学自取。linux方法,请看。

2025-02-25 22:35:16 269

原创 linux系统手动安装ollama教程(不用看其他的了)

注意:<>内,输入想要使用的LLM,新手不要输入这两个小括号“<>”

2025-02-25 22:25:03 958

原创 VMware虚拟机手动安装VMware Tools

测试功能(如拖放文件、自适应分辨率)。

2025-02-22 19:33:39 638

原创 虚假信息检测论文分享(31)Modality Perception Learning-Based DeterminativeFactor Discovery for MultimodalFake

当呈现多模态输入时,假新闻检测器检查单模态和跨模态特征来做出判断。以前的方法主要集中在设计复杂的特征提取器和多模态融合,以引入文本和视觉信息之间的模态一致性线索,从而增强假新闻检测。例如,EANN[12]直接连接由特定编码器提取的文本和视觉特征,用于最终的新闻表示。然而,这种方法不执行任何融合之间的两个异质的单模态特征。(所谓异质,即模态间特征不同,也称歧义性,本质上是相似度问题)因此,文本和图像之间可能会出现明显的语义差距,导致单模态真实的混合信息不一致的真实新闻被错误地归类为假新闻。

2024-12-25 16:59:48 125

原创 虚假信息检测论文分享(31)FANG: Leveraging Social Context for Fake News DetectionUsing Graph Representation

之前的工作提出了社会语境的部分表示,包括(i)新闻、来源和用户作为主要实体,以及(ii)立场、友谊和出版物作为主要互动[16,32,33,39]。然而,他们根本不太强调表示的质量、实体及其交互的建模和最小监督设置。自然地,新闻传播的社会语境可以表示为异质网络,其中节点和边分别表示社会实体及其相互作用。在对用户回声室或新闻媒体极化网络等现象的结构建模能力方面,网络表示比一些现有的基于欧几里得的方法[23,35]具有一些优势。

2024-12-23 17:03:36 191

原创 假新闻检测论文分享(30)MMDFND: Multi-modal Multi-Domain Fake News Detection

现有的假新闻检测方法通常集中在单一领域的新闻上,如健康或政治。然而,社交媒体上的新闻往往来自多个领域,这给单一领域的假新闻检测方法带来了两个主要挑战:数据稀缺性:处理较小、单一领域的新闻数据集时,由于训练数据的稀缺,模型的有效性显著下降。跨领域检测的准确性下降:单一领域的假新闻检测方法在跨领域新闻数据集上的准确性大幅降低。缓解领域间模态语义偏差:通过DPLE网络提取跨领域和领域特定的知识,缓解了不同领域间文本和图像的语义差异。

2024-12-20 17:22:30 258

原创 假新闻检测论文分享(29)#ICLR 2024 (EA2N)

利用外部知识进行事实核查进行假新闻检测是假新闻检测的方法之一。当前,基于知识的方法主要有KAN、FinerFact、Dual-CAN等,KAN模型利用了来自维基数据(Wikidata)的外部证据,FinerFact (Jin等人,2022)和Dual-CAN (Yang等人,2023)则采用了支持新闻文章真实性的社会信息。但这些在捕捉某些细节方面存在局限性。准确地说,这些模型很难维持较长的文本依赖关系,并且在捕捉复杂的语义关系(如事件、位置、触发词等)方面效率较低。

2024-08-11 17:34:51 761 1

原创 生成式人工智能助力6G核心技术

未来6G,需要一个智能的控制核心。

2024-08-09 17:33:40 184

原创 大模型时代的机遇与挑战

从技术突破到技术社会的融合发展沈向洋。

2024-08-09 17:31:34 138

原创 通用人工智能的中国道路

从物体,到生命体、智能体、智人。。。物体与智能体的边界,UV-双系统理论物体的运动是机械的(U函数)智能体的活动是自主的、由价值驱动。(V函数)通用智能体的的进化:AGI (C,U,V)一个统一的理论框架通用人工智能是信息空间的“原子弹”,是大国科技竞争的战略制高点。

2024-08-09 17:29:37 290

原创 人工智能安全态势和趋势

吴世忠中工院士 国家保密科技委主任重大风险隐患呼唤加强安全研究,人工智能面临未来担忧。

2024-08-09 16:51:00 333

原创 知识增强的大语言模型

王海峰 百度。

2024-08-09 16:49:52 307

原创 假新闻检测论文分享(28)Fake News Detection via an adaptive feature matching optimization framework(AFMO)

本文的主要目标是提出用于假新闻检测的智能机制,这是维护信息的准确性和可靠性的关键一步。事实上,确保多模态假新闻检测的精度,需要复杂的技术,例如,Sporfake模型擅长管理固有的噪声、模糊性和在处理多种数据类型时经常出现的不一致,从不同模态中提取的特征的一致性对齐,同时考虑了潜在的差异,带来了一个巨大的计算障碍。

2024-08-02 17:01:13 465

原创 (MLLMs)多模态大模型论文分享(1)

多模态模型结合了多种数据类型,包括图像、文本、音频等。传统的大型语言模型(LLM)主要训练和应用于文本数据,但它们在理解其他数据类型方面有局限性。纯文本LLM,如GPT-3, BERT和RoBERTa,在文本生成和编码等任务中表现出色,但它们缺乏对其他数据类型的全面理解和处理。为了解决这个问题,多模态LLM集成了多种数据类型,克服了纯文本模型的限制,并为处理不同数据类型开辟了可能性。GPT-4是多模态LLM的一个很好的例子。它可以接受图像和文本形式的输入,并在各种基准测试中展示了人类水平的性能。

2024-07-19 11:25:31 526

原创 假新闻检测论文分享(27)Adapting Fake News Detection to the Era of Large Language Models

以前,当生成式人工智能还不太流行的时候,可以合理地假设大多数自动生成的新闻文章主要被恶意行为者用来制造假新闻。然而,随着生成式AI在过去两年的显著进步,以及它们在我们生活的各个方面的引入,这些工具现在被广泛用于合法的目的,例如帮助记者进行内容创作。例如,著名的新闻机构使用人工智能起草或增强他们的文章(Hanley和Durumeric, 2023)。然而,人工撰写假新闻的老问题仍然存在。

2024-07-17 11:23:20 475

原创 假新闻检测论文分享(26)@2022AAAI BMR#Bootstrapping Multi-view Representations for Fake News Detection

许多现有的多模态FND(假新闻检测)方案使用文本和视觉特征作为集成表示。然而,从不同的观点对特征的解纠缠还没有得到彻底的研究。在许多情况下,模型处于黑盒级别,其中网络设计不能明确地突出最有贡献的组件此外,最近的许多研究仅依靠跨模态相关来生成融合特征,但作者认为跨模态相关性不一定起关键作用。因此,明确单模态和跨模态特征的作用对于改善FND至关重要。针对这些问题,作者提出了一种基于bootstrap多视图表示(bootstrap Multi-view representation, BMR)的假新闻检测方案。

2024-07-02 21:52:24 256

原创 假新闻检测论文分享(25)L-DefenseExplainable Fake News Detection With Large Language Model

现有的假新闻检测工作主要集中在通过深度网络结合多种信息来学习假新闻的潜在特征,如可信度、立场、传播模式、额外知识、域外数据等。尽管他们在探测上取得了成功,但受限于他们的黑箱性质,他们无法提供任何对公众至关重要的理由。为解决这一问题,一些研究致力于可解释假新闻检测(EFND),旨在同时生成准确性预测和解释。许多工作通过注意力机制在相关报道中注意突出特别的单词、短语或句子来提供可解释性。然而,这些工作只发现了对最终预测有高贡献的区域,缺乏直观和可信的解释。

2024-06-09 20:17:46 363

原创 假新闻检测论文(24)A comprehensive survey of multimodal fake news detection techniques...

虚假或误导性新闻,或“假新闻”,是任何捏造或故意欺骗的媒体内容。它可以被利用来操纵公众情绪,传播错误信息,甚至干预政治选举。它的主要目的是扭曲、欺骗或操纵个人的信仰和观点。虚假信息在媒体上传播的形式多种多样,包括讽刺、谣言、点击诱饵、错误信息等。讽刺作品通常充满幽默,用来强调特定问题的突出点,经常被用来批判社会和政治动态。谣言是指无效的叙述或断言,通常以流言蜚语的形式流传。点击诱饵由标题或标题组成,旨在通过“点击”来吸引注意力和激发用户互动。这些活动的特点往往是哗众取宠,缺乏经验支持。

2024-05-25 21:37:06 428

原创 假新闻检测论文分享(23)(ALB-MCF#2022IEEE)Using ALBERT and Multi-modal Circulant Fusion for Fake News Detection

首先,现有研究一般采用预训练模型BERT提取文本特征,但BERT模型参数较多,训练速度相对较慢。此外,视觉特征和文本特征处于不同的语义特征空间,存在异质性。目前的方法只是对文本和图像特征进行简单的拼接操作,可能无法更好地利用多模态数据互补的优势,并且存在冗余,影响检测性能。该文提出了ALB-MCF,将ALBERT和多模态循环融合用于假新闻检测。首先,创新性地使用ALBERT模型提取文本特征优于BERT模型;其次,利用MCF融合两模态之间的特征;

2024-04-10 20:32:42 212

原创 假新闻检测论文分享(22)Multi-modal Fake News Detection on Social Media via Multi-grained Information Fusion

在本文中,提出了一种新的多模态假新闻检测方法MMFN,该方法使用BERT和Swin- T结合Transformer获得细粒度多模态特征,使用CLIP获得粗粒度多模态特征。此外,还引入了带有CLIP相似度加权的单模态分支来自适应辅助多模态分类。

2024-02-26 12:23:56 555 10

原创 假新闻检测论文分享(21)(EM-FEND)Improving Fake News Detection by Using an Entity-enhanced

它们大多只是将图像的基本语义作为文本的补充进行初步建模,忽略了多模态假新闻的特点。具体来说,一些先前的技术通过简单地将文本特征与从ImageNet上预训练的VGG19提取的视觉特征连接起来来获得多模态表示。多模态信息融合的多模态数据异构性。目前的工作主要集中在通过预训练的VGG19或Faster R-CNN对新闻图像的一般对象进行处理,而新闻文本则是基于命名实体的更抽象的语义层次1。由于这种语义鸿沟,目前的工作难以有效地在文本和图像之间进行推理,以利用多模态线索。

2024-02-23 18:43:41 294

原创 假新闻检测论文分享(20)Multimodal fake news detection on social media: a survey of deep learning techniques

假新闻:假新闻一词可以有不同的表述形式:(1)misinformation,指无特定理由生产的虚假内容;(2)disinformation,指因特定原因产生的虚假内容;(3)malinformation,指基于事实,但被故意曲解、篡改或以误导性方式呈现的信息,以误导接收者或故意制作虚假内容以危害他人的信息。早期关于假新闻检测话题的工作仅依赖于文本内容。无论如何,即使为了获得检测错误信息的良好指标,分析新闻内容无疑是必要的,但很明显,仅进行文本分析是不够的。

2024-01-23 10:08:46 486

原创 假新闻检测论文分享(19)(22ACL#NEP)Zoom Out and Observe: News Environment Perception for Fake News Detection

大多数现有的基于传播的假新闻检测方法,一方面通过检查用户对帖子的回复研究帖子之间的关系或上下文语境之间的联系,以发现更丰富的帖子级别的信息,另一方面或通过验证知识来源的声明。然而,这些方法忽略了假新闻帖子产生和传播的外部新闻环境。由于假新闻只有广泛曝光和病毒式传播才能获得任何收益,因此假新闻创作者会在最近发布的新闻背景(环境)中精心设计如何提高帖子的知名度和吸引受众的注意力。这种有意的设计将假新闻与其相关的新闻环境联系起来,因此作者认为,可能会从新闻环境中找到有用的检测信息,从而更好地表征和检测假新闻。

2024-01-20 16:35:54 566

原创 假新闻检测论文分享(18)(FTT)Learn over Past, Evolve for Future:Forecasting Temporal Trends for Fake News Dete

在过去的十年里,大多数假新闻检测研究人员都遵循一种传统的模式,即收集一个固定的数据集,然后随机地将其分为训练集和测试集。然而,新闻数据子集是独立和相同分布的假设在实际场景中往往不成立。在实践中,假新闻检测模型是在当前时间段之前收集的离线数据上进行训练的,但需要在即将到来的时间段内检测新到达的在线数据中的假新闻。由于新闻的快速演变性质,新闻的分布可能会随着时间而变化,即时间(域)偏移(temporal shift)1,2,导致离线和在线数据的分布差异。

2023-11-27 11:41:07 1138

原创 假新闻检测论文分享(17)CAFE(Cross-modal Ambiguity Learning for Multimodal Fake NewsDetection)

本文首先从信息论的角度对跨模态歧义性学习问题进行形式化描述,利用不同单模态特征之间的分布散度量化其歧义性;然后,提出了一种模糊度感知的多模态假新闻检测方法CAFE。CAFE通过自适应地聚合单模态特征和跨模态关联,即在跨模态歧义性较弱时依赖单模态特征,在跨模态歧义性较强时参考跨模态关联,从而提高假新闻检测精度。提出了跨模态歧义学习问题,这是多模态假新闻检测的一个关键挑战,并提出了一种基于KL散度的方法,通过估计其特征分布的散度来量化文本和图像之间的歧义。

2023-11-08 16:15:31 1262 3

原创 假新闻检测论文分享(16)(KMGCN)Fake News Detection via Knowledge-driven Multimodal Graph Convolutional Networks

社交媒体网站助长了各种假新闻,其中通常包含虚假甚至伪造的多媒体内容,以误导读者,迅速传播,因此,有必要和迫切地需要使用自动检测器,以防止假新闻造成严重的负面影响,使用户获得真实的信息。假新闻检测任务可以定义为一个二元分类问题,旨在将社交媒体上的声明分类为假新闻或非假新闻。在社交媒体假新闻检测社区中有两种类型的声明:帖子级(post)工作识别社交媒体的一个帖子是否为假新闻,而事件级(event)工作对构成事件的一组帖子进行假新闻检测。模型的目标是在post级别上识别一个帖子是否是假的。

2023-10-19 09:46:11 378

原创 实体关系抽取方法总结

从二元关系抽取到多元关系抽取的转化开放领域的实体关系抽取的深入研究远程监督关系抽取方法的改进深度学习有监督方法的性能提升工业级实体关系抽取系统的继续研发。

2023-10-06 11:22:20 2460

原创 假新闻检测论文分享(15)MCNN(Detecting fake news by exploring the consistency of multimodaldata)

近期的许多研究都表明,假新闻的传播不再依赖单一的文本模式,更多的假新闻可能会出现在各种数据模式中,如文本、图片和视频。它是多媒体的集合,这意味着很难从单模数据中检测假消息。目前的假新闻检测方法要么基于单模态数据,要么合并两种类型的数据(Ma et al., 2016;马、高、王,2019)。这些方法忽略了各种模态的有效建模和多模态数据之间的相似性(TI-CNN;SAFE)。因此,不可能深入挖掘假新闻的内在特征(如图像篡改、图像不一致等)。

2023-09-26 17:12:11 925 7

原创 假新闻检测论文分享(14)(2020KDD)SAFE: Similarity-Aware Multi-modal Fake News Detection

最近,对假新闻的有效检测引起了人们的极大关注。目前的研究在预测假新闻方面做出了重大贡献,但对利用新闻文章中文本信息和视觉信息之间的关系(相似性)的关注较少。重视这种相似性有助于识别虚假新闻报道,例如,试图使用不相关的图片来吸引读者的注意力。在这项工作中,我们提出了一种相似感知假新闻检测方法(SAFE),该方法研究新闻文章的多模态(文本和视觉)信息。首先,采用神经网络分别提取文本特征和视觉特征进行新闻表示。我们进一步研究了跨模态提取的特征之间的关系。

2023-09-17 17:41:13 1270 1

原创 假新闻检测论文分享(13)(MVNN)Exploiting Multi-domain Visual Information for Fake News Detection

根据现有的研究,假新闻图片(fake-news images,假新闻帖子中附带的图像)不仅包括被恶意篡改的假图像,还包括被错误地用于表示无关事件的真实图像。将假新闻图像大致分为两类:篡改图像和误导图像。篡改图像是指经过数字修改的假新闻图像,如图1a所示,即通常意义上的假图像。误导性图片是指没有经过任何处理,但内容具有误导性的虚假新闻图片,如图1b所示。这些误导性的图像通常来自艺术品或过时的图像,这些图像是在早期事件上发布的。

2023-09-12 17:32:49 575 1

原创 假新闻检测论文分享(12)MVAE: Multimodal Variational Autoencoder for Fake News Detection

最近在深度学习领域检测假新闻的工作[26],由于其提取相关特征的能力增强,性能比传统方法有所提高。Jin等人[9]结合视觉、文本和社会上下文特征,使用注意力机制对假新闻进行预测。Wang et al.[26]使用一个额外的事件判别器来学习所有事件之间共享的公共特征,目的是消除不可转移的事件特定特征,并声称它们可以更好地处理新颖和新出现的事件。现有模型的一个缺点是它们没有任何明确的目标函数来发现模态之间的相关性。本文工作受自动编码器想法的启发,试图在多模态环境中学习共享表示。

2023-08-22 09:37:37 955 1

原创 谣言检测论文分享(11)Multimodal Fusion with Recurrent Neural Networks for Rumor Detection on Microblogs

与文本相比,图像更能描绘视觉内容,因而更能引起人们的注意。凭借丰富的视觉信息,它们也有助于区分谣言。现有的谣言自动检测方法大多是基于文本和社会语境的。基于分类的方法[7,16,31]和基于图的优化方法[10,13,14]被用于基于人工制作的文本和社会上下文特征来验证在线文本帖子的真假。最近只有少数研究首次尝试基于多媒体内容来检测谣言[9,15,16]。这些作品中使用的视觉特征也是手工制作的,这些特征基本上通过特征拼接(早期融合)或平均结果(晚期融合)与现有特征融合。

2023-08-13 09:14:32 1182 8

原创 假新闻检测论文分享(十)EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection

现有的深度学习模型在不同事件的验证文章数量充足的情况下,凭借其优越的特征提取能力,取得了比传统模型更好的性能提升。然而,它们仍然无法应对假新闻检测的独特挑战,即在新出现的、时间关键事件上检测假新闻[27]。由于缺乏相应的先验知识,此类事件的验证帖子难以及时获取,导致现有模型的性能不理想。实际上,现有的模型往往会捕获大量特定于事件的特征,而这些特征在不同事件之间并不共享。此类特定于事件的特征虽然能够帮助对已验证事件的帖子进行分类,但会影响对新出现事件的检测。

2023-06-29 17:11:11 1980 1

原创 谣言检测论文分享(九)LIAR数据集

POLITIFACT.COM上收集了长达十年的12.8K的各种语境下的人工标记简短语句,该网站为每个案例提供了详细的分析报告和源文档链接包括12,836个简短陈述,根据真实性、主题、上下文/地点、演讲者、州、政党和之前的历史进行标记。具有如此大的容量和十年的时间跨度,说谎者比目前可用的资源要大一个数量级(Vlachos和Riedel, 2014;Ferreira和Vlachos, 2016)的相似类型。

2023-06-14 10:27:03 1531 5

原创 谣言检测论文分享(八)A Survey on Fake News and Rumour Detection Techniques

主要介绍开展谣言检测或假新闻检测的背景和研究意义。社交媒体在新闻传播中具有突出作用。一方面新闻记者可能会利用社交媒体报道公众对突发新闻事件的看法,甚至发现潜在的新故事;另一方面,公民可能会通过官方渠道(即新闻机构在社交媒体平台上的官方账号)或通过自己的网络(如朋友、家人、公众人物)的帖子来关注突发新闻和事件的发展。然而对帖子缺乏控制和事实核查使社交媒体成为传播未经证实和/或虚假信息的沃土[111]。人们经常发布或分享他人的帖子,既不验证消息来源,也不验证信息的有效性和可靠性。

2023-06-05 22:55:34 1354

原创 谣言检测论文分享(七)A Survey on Natural Language Processing for Fake News Detection

首先揭示了自动假新闻检测的重要性和定义。然后比较和讨论了最新的基准数据集和不同方法的实验结果。在此基础上,该文对未来的假新闻检测数据集提出了新的建议,并对未来的假新闻检测模型提出了以下建议:研究手工特征是否可以与神经网络模型结合、非文本数据的合理使用以及扩展基于内容的验证方式。

2023-06-01 09:51:09 666

原创 谣言检测论文分享(六)(基于监督学习的特征方法信息可信度)Information Credibility on Twitter

本文专注于评估给定tweet集可信度的自动方法,主要目标是确定是否可以自动评估Twitter上发布的内容的可信度水平。我们的主要假设是,在社交媒体环境本身存在可用的信号,使用户能够评估信息的可信性。在这种情况下,们将社交媒体可信度定义为信息可信度的方面,可以仅使用社交媒体平台中可用的信息进行评估本文方法是基于监督学习的,

2023-05-22 11:39:04 384

原创 谣言检测论文分享(五) Fake News Detection via Knowledge-driven Multimodal Graph Convolutional Networks(KMGCN)

社交媒体网站助长了各种假新闻,其中通常包含虚假甚至伪造的多媒体内容,以误导读者,迅速传播,因此,有必要和迫切地需要使用自动检测器,以防止假新闻造成严重的负面影响,使用户获得真实的信息。假新闻检测任务可以定义为一个二元分类问题,旨在将社交媒体上的声明分类为假新闻或非假新闻。在社交媒体假新闻检测社区中有两种类型的声明:帖子级(post)工作识别社交媒体的一个帖子是否为假新闻,而事件级(event)工作对构成事件的一组帖子进行假新闻检测。模型的目标是在post级别上识别一个帖子是否是假的。

2023-05-21 16:46:21 1112 6

ollama安装包(windows)

由于网络限制,不少同学下不到ollama安装包。还有linux安装包,分别上传,供网友借鉴。

2025-02-25

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除