- 博客(33)
- 收藏
- 关注

原创 使用镜像向anaconda环境中安装python第三方库
如:安装numpy库pip install -ihttps://pypi.tuna.tsinghua.edu.cn/simplenumpy
2020-03-16 10:59:17
1823
原创 论文阅读:Augmenting Reasoning Capabilities of LLMs with Graph Structures in KBQA
论文来源:EMNLP 2024 finding(暂未发布)
2025-03-08 11:22:45
1158
1
原创 论文阅读:KAM-CoT: Knowledge Augmented Multimodal Chain-of-Thoughts Reasoning
LLM通过利用能够逐步思考的思维链在NLP任务中取得了很好的性能,但是为LLM扩展多模态能力时计算成本高,且需要大量的硬件资源。为了解决上述问题,本文提出了KAM-CoT框架,集成了CoT推理、知识图谱和多种模态,以全面理解多模态任务。KAM-CoT采用两阶段式训练过程,连接知识图谱以生成有效的推理和答案,通过在推理过程中整合来自KG的外部知识,使模型获得更很层次的上下文理解,以缓解幻觉,并提高答案的质量。这种知识增强的CoT推理能够使模型处理需要外部上下文的问题,提供更高质量的答案。
2025-03-06 18:35:56
1019
1
原创 论文阅读:Chain-of-Question: A Progressive Question Decomposition Approach for Complex KBQA
论文来源:ACL 2024 Finding论文地址:KBQA任务通常包含两种范式用于解决复杂的KBQA:基于信息检索的方法和基于语义解析的方法。基于信息检索的方法:构建一个特定于问题的子图来捕获相关信息,并根据问题的相关性对实体进行排序;基于语义解析的方法将问题转换为符号逻辑形式,并查询知识库以获得答案。基于语义解析的KBQA方法通常是根据原始问题推导出所有的子问题,并生成逻辑形式推理出答案,但是这类方法并不适用于需要根据前一问题的答案生成下一问题的情况,如多跳推理。
2025-02-17 17:53:14
824
1
原创 论文笔记:RelationPrompt :Zero-Shot Relation Triplet Extraction
提示学习关系三元组抽取
2024-10-12 16:48:03
2256
5
原创 论文笔记:Pre-training to Match for Unified Low-shot Relation Extraction
MCMN
2024-10-12 16:47:32
1904
3
原创 论文笔记:Prototypical Verbalizer for Prompt-based Few-shot Tuning
提示学习、原型向量、对比学习
2024-10-12 16:47:19
1654
1
原创 Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification
提示学习,语言表达器
2024-10-12 16:47:00
677
原创 论文笔记:KnowPrompt: Knowledge-aware Prompt-tuning withSynergistic Optimization for Relation Extraction
提示学习 RE
2024-10-12 16:46:38
1086
1
原创 论文笔记:Label Verbalization and Entailment for Effective Zero and Few-Shot Relation Extraction
提示学习,关系抽取
2024-10-12 16:45:33
729
1
原创 论文笔记:Prompt-Based Meta-Learning For Few-shot Text Classification
Prompt-Based Meta-Learning
2024-10-12 16:45:12
1664
1
原创 论文笔记:IMF: Interactive Multimodal Fusion Model for Link Prediction
最近一些研究将多模态信息引入到链接预测中,但是这些方法是分别利用多模态信息的,忽略了不同模态之间的复杂交互。为了更好地建模模态间的信息,引入一种交互式多模态融合模型,整合不同模态间的知识。通过两阶段式多模态融合框架来保存特定模态的知识,并利用不同模态之间的交互。多模态融合模块没有将不同模态投影到一个统一的向量空间,而是限制了不同模态的独立表示,同时利用双线性池化进行融合,并将对比学习作为额外的约束。此外,决策融合模块在所有模态预测的上提供学习到的加权平均,以更好地整合不同模态的互补性。
2024-03-25 21:17:42
1175
5
原创 论文笔记:Think-on-graph: Deep and responsible reasoning of large language model with knowledge graph
尽管大语言模型在各种任务中取得了显著的效果,但是经常存在幻觉问题。通过在LLM推理中引入外部知识图谱可以解决部分问题。本文提出一种新的LLM-KG集成范式,将LLM视为一个代理,交互探索KG上的相关实体和关系,并基于检索到的知识进行推理。作者引入一种名为在图上思考(Think-on-Graph, ToG)的方法来进一步实现这一范式,LLM代理在KG上迭代执行波束搜索,发现最优路径,并返回最有可能的推理结果。ToG方法的优点:① 与LLM相比,ToG具有更好的深度推理能力;
2024-03-07 19:21:04
1853
1
原创 论文笔记:Knowledge-Augmented Language Model Promptingfor Zero-Shot Knowledge Graph Question Answering
LLM能够根据其在预训练过程中存储在参数中的内部知识进行零样本闭卷问答任务,但是这种内部知识可能是不正确的和过时的,导致LLM生成事实上错误的答案,此外,对LLM进行微调来更新其中的知识是昂贵的。为此,本文直接在LLM的输入中增加知识。具体来说,首先根据问题及相关事实之间的语义相似性从知识图谱中检索与输入问题相关的事实;然后,将检索到的事实以提示的形式与输入问题融合,并输入到LLM中,生成答案。KAPING框架不需要重新进行模型训练,因此可以适用于零样本场景。
2024-03-04 15:51:18
1385
1
原创 论文笔记:Do Prompt-Based Models Really Understandthe the Meaning of Their Prompts?
提示真的有意义吗
2023-03-26 17:33:03
363
1
原创 论文笔记:Event Detection as Graph Parsing
论文地址:https://aclanthology.org/2021.findings-acl.142.pdf论文来源:ACL 2021Abstract事件检测是信息抽取的一项基本任务。之前大多数方法通常将事件检测视为基于触发词的分类问题,聚焦于使用语法依赖结构或外部知识来提高分类性能。为了克服现有基于触发词分类 模型存在的问题,本文提出一种新的事件检测方法,将其描述为一个图解析问题,可以显式地对多个事件关联进行建模,并自然地利用事件类型和子类型传递的丰富信息。此外,为了解决数据稀疏问题,在不.
2021-12-13 11:22:48
1389
原创 论文笔记-MLBiNet: A Cross-Sentence Collective Event Detection Network
论文地址:https://arxiv.org/pdf/2105.09458.pdf代码地址:来源:ACL 2021
2021-09-28 09:44:32
910
原创 Linux 常用的命令
1、创建、删除文件夹:创建:mkdir filename(注意mkdir与filename之间有一个空格)删除:rm -rf filename
2021-04-26 21:17:40
122
原创 快速下载GitHub上的文件
gitee是基于git的代码托管平台,对于大文件很难从GitHub上快速下载,我们可以将代码导入到gitee的个人仓库中,然后在点击下载,这时候我们就可以发现下载速度跟直接从GitHub上下载相比那是相当的快啊。步骤:1、登录github(QQ或微信等方式均可),然后点击下图的加号,从GitHub导入仓库2、从URL导入,将要下载文件的地址复制到下图1的位置,点击导入,就可以导入到自己的仓库了,然后通过gitee下载所要的文件即可...
2020-10-21 16:42:41
875
原创 池化层的作用
1、下采样2、降维、去除冗余信息、对特征进行压缩、简化网络复杂度、减小计算量、减小内存消耗等。也就是说在保留主要的特征的同时减少参数和计算量,防止过拟合,提高模型的泛化能力。① 特征不变性,在对图像进行操作时,池化就是图像的resize,在图像被压缩时,被去掉的信息是一些不重要的信息,而留下的信息则是具有尺度不变型的特征,也是最能表达图像信息的特征。② 特征降维,也就是去除冗余信息,把最重要的特征抽取出来。...
2020-10-15 14:41:44
6930
原创 张量的部分操作
torch.pow():对输入张量的每个元素进行幂次运算:a = torch.randint(1,6,(2, 3))print(a)print(torch.pow(a,2))输出:unsqueeze():维度扩增,对张量的某一维上增加一维:a = torch.randint(1,6,(2, 3))print(a)print(a.unsqueeze(1))print(a.unsqueeze(1).shape)输出:view():改变张量的维度,可以将一
2020-10-08 10:17:46
414
原创 对dropout的简单理解
Dropout简介 1、出现原因: 在机器学习的模型中,如果模型的参数太多,训练样本太少,训练出来的模型就容易产生过拟合现象。 过拟合的具体表现为: 模型在训练数据上损失函数较小,预测准确率较高;在测试数据上损失函数比较大,预测准确率较低。 dropout可以比较有效的缓解过拟合的发生,在一定程度上达到正则化的效果...
2020-04-14 17:11:04
385
转载 pyltp安装
选择安装wheels方法1)下载wheels下面两个文件针对不同的python版本下载一个即可,电脑(win10),64bit的windows应该都可以。pyltp-0.2.1-cp35-cp35m-win_amd64.whlpyltp-0.2.1-cp36-cp36m-win_amd64.whl2)安装文件下载好了以后, 在命令行下, cd到wheel文件所在的目录, 然...
2020-03-26 11:19:33
338
原创 from sgmllib import SGMLParser
SGMLParser是python2.x版本自带的模块,python3.x后都集成在模块htmlParser中,不过使用方法大同小异因此可以使用 from html.parser import HTMLParser 来代替SGMLParser
2020-03-17 11:25:01
668
原创 python 读取excel文件
#encoding=utf-8import xlrdfrom xlwt import *#------------------读数据---------------------------------fileName="6.xlsx"bk=xlrd.open_workbook(fileName)shxrange=range(bk.nsheets)try: sh=bk.sheet...
2018-05-02 20:39:42
536
转载 nltk入门函数解释(concordance,similar,common_contexts)
#from nltk.book import *; #导入NTLK包中book中的所有的例子模型 #print(text1); #输出book中text1的相关信息 #text1.concordance("monstrous"); #在text1中找到特定单词并显示出上下文 #print("monstrous in text1 similar to")
2017-07-29 17:35:24
3902
原创 Python 2.7下下载并安装nltk (自然语言处理工具包)
1、在cmd窗口中,进入到python的文件夹内的 Scripts内,我的目录地址是:D:/using/Python/Scripts 命令行输入:easy_install pip 运行结束后,安装PyYAML and NLTK ,命令行输入:pip install pyyaml nltk 会有很多进度条,最后显示successfully这样就将nltk installed
2017-07-29 10:36:55
4269
原创 模拟停车场管理系统
问题描述:设停车厂只有一个可停放几辆汽车的狭长通道,且只有一个大门可供汽车进出。汽车在停车场内按车辆到达的先后顺序依次排列,若车场内已停满几辆汽车,则后来的汽车只能在门外的便道上等候,一旦停车场内有车开走,则排在便道上的第一辆车即可进入;当停车场内某辆车要离开时,由于停车场是狭长的通道,在它之后开入的车辆必须先退出车场为它让路,待该辆车开出大门后,为它让路的车辆再按原次序进入车场。在这里假设汽
2016-11-06 09:08:33
3097
1
原创 数据结构 约瑟夫环问题
实验一 线性表的应用实验目的和要求:通过实验进一步理解线性表的逻辑结构和存储结构,提高使用理论知识指导解决实际问题的能力,熟练掌握链表的实际应用。主要内容:题目1 :Josephus环问题问题描述:约瑟夫(Joseph)问题的一种描述是:编号为1,2,…,n的n个人按顺时针方向围坐一圈,每人持有一个密码(正整数)。一开始任选一个正整数作为报数上限值m,从第一个人开始按顺时
2016-10-30 10:38:23
11968
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人