2023-11-21 19:35
半月总结
先是去了解大模型和知识图谱分别是什么,
大模型和知识图谱之间的关系,对大模型和知识图谱有了初步了解,
大模型LLM就是大语言模型,
然后,看论文,熟悉并记忆git命令和linux相关命令,(后续因为对linux的指令不熟悉,导致出现很多错误和bug,程序并不想教程那般顺利,然后为了解决这些问题,有花费时间去查怎么解决,)
Then就去找大模型案例,study
Then去弄虚拟机(centos),磕磕绊绊,然后尝试在虚拟机上配置环境,部署模型,conda虚拟环境的了解+部署,
然后在虚拟机翻墙,通过clash代理,算是把网翻了出去(为后续埋下祸根)
Conda创建的虚拟环境只会把虚拟环境的目录生成在anaconda安装目录下的env目录,而pip建立的虚拟环境会直接在当前目录下生成一个虚拟环境的目录,激活虚拟环境也需要指定这个目录才可以。
在centos上耗费的时间有些长,包括环境配置,
然后11.5开始neo4j学习,看相关资料,看b站找教程,学习如何使用
Then
看论文,看知识图谱与大模型相关文章(后悔当时没做笔记,导致现在看过两遍印象仍然不太深刻)
开始查询transformer和LLM的情况,看老师发的文章,
理解transformer
了解NLP
NLP自然语言处理,是人类与机器沟通的桥梁,处理结构化数据和非结构化数据。
NLG是为了跨越人类和机器之间的沟通鸿沟,将非语言格式的数据转换成人类可以理解的语言格式,如文章、报告等。
了解并尝试部署LLama2
11.9开始陷入ssh危机
自己摸索为什么自己的虚拟机跟ssh一直连不上,这段时间大概耗费两天,csdn,知乎等尝试了各种配置和方法,到最后发现,不能连接的原因是因为clash,clash能使虚拟机连外网,然后将虚拟机中的配置(关于clash)关闭后,ssh与虚拟机得以联通
之后开始对LLM,NLP,LLama2开始详细了解,+看论文看论文看论文,其中好多知识点没有看明白,就去查
接下来去查数据集,通过数据集可以进行prompt engineering进行训练,输入prefix,输出有结构的result(要对策略生成的那篇论文进行详细的查看,看看人家的技术点在哪里,咱们做有没有难度,人家用了什么数据集,是不是可以用?咱们通过程序改一下数据集行不行?)。了解预训练模型怎么利用数据集进行训练,分析模型看论文找创新点(创新点就是通过大模型-抽取重要的长文本实体以及复杂关系)。
通过看论文,找别人的实验过程和对比试验,去分析
好好看看最后那个论文,策略生成,看明白,并带思考,咱们的大模型该怎么做
看看人家怎么用的大模型,怎么从输入一段文字经过大模型就推荐你用哪个传感器
!!!!头等大事!找数据集,看有没有类似于deepke,使得专业领域的数据集能够输出像deepke一样,知识图谱与大模型结合,输出专业领域知识的知识图谱
问题回答与推理: 大型语言模型可以使用知识图谱进行推理和问题回答。当模型需要进行推理或解答特定问题时,知识图谱中的结构化信息可以帮助模型理解问题、找到相关信息并生成更准确的回答。