自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

欢迎来到我的up空间站

欢迎来到我的up空间站

  • 博客(18)
  • 收藏
  • 关注

原创 【论文1】图评测-大模型实战

实战

2025-10-21 15:34:40 845

原创 【论文1技术补充】※哈密顿图、最短路径

哈密顿图

2025-10-20 21:30:14 944

原创 【论文1技术补充】拓扑排序

拓扑排序

2025-10-09 00:09:50 288

原创 【论文1技术补充-附代码】最大流问题

最大流问题,

2025-09-27 22:55:02 913

原创 【论文1技术补充】匈牙利算法、环检测

有向图是一副具有方向性的图,是有一组顶点和一组有方向的边组成的,每条方向的边都连接着一对有序的顶点。全部由无向边构成图称为无向图有向图相关术语。

2025-09-19 16:41:55 543

原创 【附录】1.1 直接答疑相关技术补充

技术补充

2025-09-12 14:08:26 549

原创 【附录】llm大模型部署与微调学习(1)_在线平台部署

在线大模型部署1

2025-09-01 16:11:36 440

原创 [附录]GAT简单案例

gat

2025-08-26 16:57:18 459

原创 【附录】GCN简单案例推理

gcn案例推理

2025-08-19 16:12:41 816

原创 【附录】GNN推理简单案例

cnn的一些简单理解

2025-08-15 16:30:47 914

原创 1.纯图-算法解析与实践

今天更新了一下,主要说明了gnn目的,以及为什么要使用gnn

2025-08-06 18:40:07 312

原创 0.【知识图谱+llm实践】引言

V:节点集合(如交通网络的交叉口)。E:边集合(如道路连接),边e,如下图案列:这里我们使用城市地铁网络,正好对应上面,G=(V,E)节点集V:地铁站点:边集E:站点间的地铁轨道G = {“C”: [“A”, “E”], # … 其他节点如下图:(这里的时间以及节点都是我们自假设的)注:边可附带权重(如距离/时间),本例中权重为分钟。依据这些我写了一个小例子供大家理解~–百度网盘。

2025-08-06 16:27:16 977

原创 给大家推荐一篇综述文章,对于词向量的发展说的非常详细。可以迅速了解目前以及历史的主流工具以及方法。

综述简介。

2024-06-19 17:56:13 231

原创 词频g指数计算方法-python实现

词频指数g计算方法以及python实现

2022-11-16 11:17:47 1430

原创 lda主题演化与热度python实现

lda主题演化与热度python实现

2022-10-11 21:51:23 9633 64

原创 python轮子文件下载网址推荐

python库轮子文件下载

2022-07-07 21:00:51 1945

原创 关于最近自然语言处理的一些心得体会(二)

在分词方面 我最终选用了JIEBA分词:我通过AINLP公众号进行了对比 ,对比结果如下:通过其分词结果可以看出效果比较好的有:jieba, HANLP, BaiduLac之前笔者尝试过斯坦福nlp 由于其在中文分词的里面分的将词汇分的过于精细,导致其分词效果到达不了我们想要的结果,最终笔者选择了jieba。ps: HANLP感觉很是很棒的, 大家也可试一下。在这里给大家推荐一个中文分局的方法:用python进行精细中文分句(基于正则表达式)那么我们继续进行下一步的步骤。我们首先将

2021-10-20 11:03:28 2055

原创 关于最近自然语言处理的一些心得体会(一)

首先是关与文档处理: 在我们批量处理文档的时候,首先要做的是读取某个文件夹下的所有txt文件名,并通过文件名来定位其文件并读取。因此:我们可以用os.listdir命令进行读取。具体在python实现如下:path = "E:/pythoncode/test-corpus/corpus"filename = os.listdir(path)filenames = []doc = []for i in filename: filenames.append(i) # ..

2021-10-18 16:30:49 1177

论文1图连通检测数据集

【论文1】图连通检测数据集

2025-10-21

Can languagemodels solve graph problems in natural language?代码

Can languagemodels solve graph problems in natural language?代码

2025-09-15

人工智能基于图增强前缀调优的图推理模型:大语言模型与图学习协同架构设计

内容概要:本文提出了一种名为GraphLLM的端到端框架,旨在提升大语言模型(LLMs)在图数据上的推理能力。现有方法通常将图结构转换为自然语言描述(Graph2Text),但这种方式导致上下文冗长且难以捕捉图的结构信息,限制了LLMs的图推理性能。GraphLLM通过协同集成图学习模型(如图Transformer)与大语言模型,分别处理节点语义信息和图结构信息,并通过图增强前缀调优(graph-enhanced prefix tuning)将图表示编码为固定长度的前缀注入LLM,从而实现高效精准的图推理。实验表明,GraphLLM在四个基础图推理任务上平均准确率提升54.44%,上下文长度减少96.45%,并实现3.42倍推理加速。; 适合人群:具备一定自然语言处理和图神经网络基础的研究生、研究人员及AI工程师。; 使用场景及目标:①解决LLMs在图结构数据(如分子图、社交网络)上的推理能力不足问题;②在药物发现、芯片设计等需图推理的领域提升大模型性能;③研究如何有效融合图学习模型与大语言模型以实现端到端训练。; 阅读建议:建议结合论文中的图示(如图1、图2)和实验部分(如表2、表4)深入理解GraphLLM的架构设计与优势,重点关注其与传统Graph2Text方法的对比分析,并可参考开源代码进一步复现实验。

2025-09-09

“Talk like a graph: Encoding graphs for large languagemodels,”

内容概要:本文系统研究了如何将图结构数据编码为文本形式,以供大型语言模型(LLM)进行图推理任务。作者提出并评估了多种图编码方法、提示工程技术以及图结构类型对LLM性能的影响,发现编码方式、任务类型和图结构本身均显著影响模型表现。研究引入了GraphQA基准,涵盖边存在性、节点度、连通节点、环检测等基本图任务,并通过大量实验揭示了不同编码策略的优劣,例如“incident”编码在多数任务中表现更优,而特定语义命名(如政治人物、影视角色)在某些任务中更具优势。实验还表明,模型容量、提示方法(如零样本、少样本、思维链)以及图的生成结构(如路径图、完全图)均对推理效果有重要影响。研究结果表明,合理的图编码可使LLM在图推理任务上的性能提升4.8%至61.8%。; 适合人群:从事人工智能、自然语言处理、图神经网络或大模型研究的科研人员与工程师,具备一定机器学习和图论基础的研究者。; 使用场景及目标:①研究如何将图结构信息有效融入大语言模型进行推理;②探索不同图编码策略对LLM性能的影响;③利用GraphQA基准评估大模型的图推理能力;④为构建知识图谱与大模型融合系统提供编码设计指导。; 阅读建议:建议结合文中的实验设计与结果表格深入理解不同编码方法的适用场景,重点关注图结构、编码函数与提示策略的交互影响。读者可基于GraphQA基准复现实验,进一步探索适用于特定应用场景的最优编码方案。

2025-09-09

“LLM4DyG: Can large language models solve problems on dynamicgraphs?,”

内容概要:本文首次提出并构建了一个名为LLM4DyG的基准,用于评估大语言模型(LLMs)在动态图上理解和处理时空信息的能力。该基准包含九个专门设计的任务,涵盖时间、空间以及时空交互维度,如时间链接、时序路径和动态三元闭包等。研究通过多种数据生成器、图统计特征、提示技术及不同LLMs进行广泛实验,发现LLMs具备初步的时空理解能力,但性能随图规模和密度增加而下降,且对时间跨度不敏感。为此,作者提出一种解耦时空思维(DST2)的提示方法,引导模型先处理时间再处理结构信息,显著提升了多数任务的表现。; 适合人群:从事人工智能、自然语言处理或图神经网络研究的研究人员,尤其是关注大语言模型在复杂结构数据上应用的学者和工程师。; 使用场景及目标:①评估大语言模型在动态图上的时空推理能力;②探索提示工程对复杂时空任务的影响;③为动态图学习与大模型结合提供实验基础与方法参考; 阅读建议:建议结合论文中的实验设置与结果分析,重点关注DST2提示方法的设计思路及其在不同任务中的表现差异,同时可复现部分实验以深入理解模型在动态图任务中的行为特性。

2025-09-09

C. Liu and B. Wu, Evaluating large language models on graphs: Per- formance insights and comparat

内容概要:本文系统评估了四种大型语言模型(LLMs)在处理图数据时的能力,重点分析其对图结构的理解、推理准确性、结果保真度及自我修正能力。研究设计了五类图任务(如路径查找、邻居节点判断、模式匹配等),采用四种评估指标(理解力、正确性、保真度和修正能力),并测试了零样本思维链和少样本提示等技术的效果。结果表明,GPT系列模型在理解图结构和生成逻辑性回答方面表现优异,但在结构推理尤其是多答案任务中存在高错误率和过度自信问题,影响其保真度与自我修正能力。值得注意的是,GPT-4展现出对自身及其他模型输出的修正潜力。; 适合人群:从事人工智能、自然语言处理或图数据分析的研究人员与工程师,具备一定机器学习和图论基础的技术人员。; 使用场景及目标:①评估LLMs在图结构数据上的推理能力;②探索提升模型在复杂拓扑任务中准确性和可靠性的方法;③为构建具备图推理能力的智能系统提供实证依据与改进方向。; 阅读建议:本研究结合实验设计与多维度指标分析,建议读者重点关注不同提示策略对模型性能的影响,以及GPT-4在保真度与修正能力方面的独特表现,结合实际应用场景审慎使用LLM处理图数据任务。

2025-09-09

人工智能基于大语言模型的图结构数据理解能力评估:GPT4Graph框架设计与多任务基准测试

人工智能基于大语言模型的图结构数据理解能力评估:GPT4Graph框架设计与多任务基准测试

2025-09-09

【自然语言处理】基于NLGraph基准的大语言模型图推理能力评估:复杂结构问题求解与提示工程优化研究

内容概要:本文提出并构建了一个名为NLGraph的自然语言图问题求解基准,旨在评估大语言模型(LLMs)在处理具有显式图结构的自然语言问题时的推理能力。该基准包含29,370个问题,覆盖八类复杂度不同的图推理任务,如连通性、最短路径、最大流、哈密顿路径以及图神经网络模拟等。研究发现,LLMs在简单图任务上展现出初步的图推理能力,但随着问题复杂度增加,先进提示方法(如思维链、自洽性)的效果减弱,且模型在面对虚假相关性时表现脆弱。为此,作者提出两种基于指令的提示方法——“构建图”提示和“算法”提示,可使LLM性能提升3.07%至16.85%。尽管如此,解决最复杂的图推理任务仍是开放问题。该基准与代码已公开,促进后续研究。; 适合人群:从事自然语言处理、人工智能或图神经网络相关研究的科研人员及研究生,具备一定机器学习和语言模型基础知识。; 使用场景及目标:①评估大语言模型在结构化图问题上的显式推理能力;②研究提示工程在复杂算法任务中的有效性;③推动语言模型与符号推理、图算法结合的前沿探索;④作为新模型或方法在图推理任务上的测试基准。; 阅读建议:建议结合NLGraph开源资源进行实践验证,重点关注不同提示策略在各类图任务上的表现差异,并深入分析模型失败案例以理解其推理局限性。

2025-09-08

Large Language Models-on-Graphs-A-Comprehensive-Survey.pdf

Large Language Models-on-Graphs-A-Comprehensive-Survey.pdf

2025-08-01

词向量综述文章,推荐观看

词向量综述词向量综述

2024-06-19

维基百科100维词向量模型下载

word2vec预训练模型,gensim做的

2022-08-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除