- 博客(12)
- 收藏
- 关注
原创 Linux访问Hugging face错误失败的解决办法!!!hugging face 访问下载预训练模型失败解决办法
提示:这里对文章进行总结:欢迎关注我们的宫中皓,我们会分享更多坑!!!
2025-04-02 20:09:35
97
原创 三行代码,教你做着这种训练损失图像监控!研一,研二,研三,必看!wandb,一个监控简易训练库,论文作图必看,论文写作
欢迎大家关注我的***宫中皓***,往期文章可以看到,或者私信我。
2025-03-27 15:16:48
239
原创 【Enriched entity representation of knowledge graph for text generation】文本生成知识图谱的丰富实体表达,论文解析,
您好,我们是一群热情洋溢的探索者,致力于深耕AiGC应用领域。我们的目标是挖掘、分析并分享那些能够启迪思维、推动科学进步的优质学术论文。我们坚信,知识的传播和交流是促进创新和社会发展的关键力量。
2025-03-15 14:31:07
870
原创 【A Survey of Multi-modal Knowledge Graphs: Technologies and Trends】多模态知识图谱一项调查:技术和发展缺失。研一小白相关方向必看!
这项调查提供了一个全面的文献综述在新兴领域的MMKG。虽然多模态机器学习是一个成熟的研究领域,但知识图谱是一项主导技术,它使复杂的人工智能应用程序的开发成为可能。在MMKG中,我们能够以结构化的方式表示知识,并利用文本和图像等互补信号来提供深入而准确的知识表示。因此,MMKG在处理复杂查询方面非常有效,并提供了传统知识图所不能提供的机会。此外,MMKG可以使用各种信号(例如互联网上可用的图像)来确定从不同语言的文本中提取并以不同精度级别编码的两个概念是否指的是同一个现实世界实体。
2025-03-13 17:35:13
661
原创 通过代码从网络下载hugging face中下载模型,出现网络连接错误,或计算机积极拒绝的两种解决方法。
例如:项目场景:示例:通过代码从网络中下载hugging face中下载模型,出现网络连接错误,或计算机积极拒绝的两种解决方法。
2025-03-07 15:43:17
228
原创 【基于知识约束的预训练语言模型的多语种知识图谱补全】论文分析鉴赏
多语言知识图谱补全(Multilingual Knowledge Graph Completion, mKGC)旨在通过对尾实体(tail entity)进行推理来解决不同语言中的(h, r, ?)等查询,从而改进多语言知识图谱。先前的研究利用多语言预训练语言模型(PLMs)和生成范式来实现mKGC。尽管多语言预训练语言模型包含了不同语言的广泛知识,但其预训练任务不能直接与mKGC任务对齐。此外,目前可用的大多数kg和plm都表现出明显的以英语为中心的偏见。这使得mKGC很难获得好的结果,特别是在低资源语言
2025-01-04 20:42:50
723
原创 学习深度学习入门门槛!PyTorch真的不难,常见的用法就这么多!研一、一定要先看在学,理论和实践相结合!
PyTorch以其灵活性和强大的功能脱颖而出,成为研究者和开发者的首选工具。它不仅能够支持复杂神经网络的构建,还能在数据处理上展现出卓越的效率。本文将带你深入了解PyTorch的核心技巧,让你在构建、训练和优化神经网络模型的过程中游刃有余,同时掌握数据处理的高级技巧,以便将深度学习的理论快速转化为实际应用。
2025-01-02 21:17:14
196
原创 【关于pytorch-geometric、torch_cluster、torch_scatter、torch_sparse、torch_spline的版本对应及安装】
踩坑:标题的那几个库,直接安装会有很大概率导致版本不兼容造成报错,本文用于记录自己的踩坑解决方案。提示:以下是本篇文章正文内容,下面解决方案可供参考跟着教程一点点来就可以了。如果有不懂或者书写有误的地方,欢迎指正,可以私信,或者加入我们的微信公众号。
2024-11-14 11:39:07
678
4
原创 【IMF:链接预测的交互式多模态融合模型】(非常详细),收藏这一篇就够了
链接预测旨在识别知识图中潜在的缺失三元组。为了得到更好的结果,最近的一些研究引入了多模态信息来进行链接预测。然而,这些方法单独利用多模态信息,忽略了不同模态之间复杂的相互作用。在本文中,我们旨在更好地建模跨模态信息,从而引入一种新的交互式多模态融合(IMF)模型来整合来自不同模态的知识。为此,我们提出了一个两阶段的多模态融合框架,以保留模态特定知识,并利用不同模态之间的互补性。我们的多模态融合模块不是直接将不同的模态投射到一个统一的空间中,而是限制了不同模态的独立表示,同时利用双线性池进行融合,并将对比学习
2024-11-11 17:36:04
1096
原创 【KG-BERT:BERT用于知识图谱补全】(非常详细),收藏这一篇就够了
知识图谱是许多人工智能任务的重要资源,但往往存在不完整性问题。在这项工作中,我们使用预训练的语言模型来完成知识图。将知识图中的三元组视为文本序列,并提出了一种新的框架——知识图双向编码表示转换器(KG-BERT)来建模这些三元组。该方法以三元组的实体描述和关系描述为输入,利用KG-BERT语言模型计算三元组的评分函数。在多个基准知识图上的实验结果表明,我们的方法在三重分类、链接预测和关系预测任务中都能达到最先进的性能。
2024-09-09 16:08:58
1798
原创 【KM-BART:用于视觉常识生成的知识增强多模态BART】(非常详细),收藏这一篇就够了
于知识的常识生成(knowledge -based Commonsense Generation, KCG)的预训练任务通过利用在外部常识知识图上预训练的大型语言模型中的常识知识,提高了模型在VCG任务上的性能。
2024-08-13 11:25:27
923
原创 基于多模态知识图谱的多模态推理-MR-MKG(非常详细)零基础入门到精通,收藏这一篇就够了
多模态推理与大型语言模型(LLMs)经常遭受幻觉的困扰,以及LLMs内部知识不足或过时的问题。一些方法通过使用文本知识图谱来缓解这些问题,但它们单一的知识模态限制了全面的跨模态理解。在本文中,我们提出了一种基于多模态知识图谱的多模态推理(MR-MKG)方法,该方法利用多模态知识图谱(MMKGs)来学习跨模态的丰富语义知识,显著增强了LLMs的多模态推理能力。特别是,使用关系图注意力网络对MMKGs进行编码,并设计了一个跨模态对齐模块来优化图像-文本对齐。
2024-08-11 16:00:07
2341
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人