经过老师的介绍,了解到了书生浦语大模型正在开课,于是报了个课来了解下,玩了几天准备对它来简单做个介绍,也让自己对这个大模型有个系统性的了解;
书生浦语官网
目前书生浦语正在开课,重点:
1、了解Ai行业行业前沿功能
2、免费
3、送用于服务器、显卡供你学习,学的越牛逼,送的越多
扫描以下二维码可以报名:
记录书生大模型任务L1G4000 InternLM + LlamaIndex RAG 实践
在问到大模型未涉及到知识时,它可能会胡说八道,这时候就要用到RAG技术。它的功能你可以理解成外挂,物理上的外挂,自己的东西不够用了,从外挂的知识库里面找找有没有相关内容。让模型不用额外训练可以增加新的知识,这个场景一般在经常需要搜索新内容的地方可以用到,比如新闻;
根据项目文档一路往下走,都不难。所有流程都已经按步设置好了,你只要复制黏贴即可,不一定能让你深入了解内部运行原理,但是知道个大概,会发现理论上那么深奥看不懂的东西技术上实施起来也就那么回事,再往后走就顺利很多了。
隐藏的小bug,在项目文档的url后面有个逗号,实际运行中要去掉它,不然会给你惊喜;
token也是县城的,直接调用书生浦语官网中有;
根据原有的知识,我提问:xtuner是什么?因为模型内部并不包含相关的知识,要么开始开始胡说八道,要么说不知道。这是很多大模型都存在的一个问题。
然后我给他上外挂,我把xtuner相关的知识放在这个文件中,然后让他去读取。
运行的时候再次发现了一个bug:
模型的路径是下载到了/root/model/sentence-transformer’,引用的却是:/root/model/paraphrase-multilingual-MiniLM-L12-v2
改成正确路径之后
再次去问它相同的问题,奇迹出现了: