记录书生大模型任务L1G4000 InternLM + LlamaIndex RAG 实践

经过老师的介绍,了解到了书生浦语大模型正在开课,于是报了个课来了解下,玩了几天准备对它来简单做个介绍,也让自己对这个大模型有个系统性的了解;
书生浦语官网
目前书生浦语正在开课,重点:

1、了解Ai行业行业前沿功能

2、免费

3、送用于服务器、显卡供你学习,学的越牛逼,送的越多

扫描以下二维码可以报名:
在这里插入图片描述

记录书生大模型任务L1G4000 InternLM + LlamaIndex RAG 实践

在问到大模型未涉及到知识时,它可能会胡说八道,这时候就要用到RAG技术。它的功能你可以理解成外挂,物理上的外挂,自己的东西不够用了,从外挂的知识库里面找找有没有相关内容。让模型不用额外训练可以增加新的知识,这个场景一般在经常需要搜索新内容的地方可以用到,比如新闻;
根据项目文档一路往下走,都不难。所有流程都已经按步设置好了,你只要复制黏贴即可,不一定能让你深入了解内部运行原理,但是知道个大概,会发现理论上那么深奥看不懂的东西技术上实施起来也就那么回事,再往后走就顺利很多了。
隐藏的小bug,在项目文档的url后面有个逗号,实际运行中要去掉它,不然会给你惊喜;
token也是县城的,直接调用书生浦语官网中有;

在这里插入图片描述
根据原有的知识,我提问:xtuner是什么?因为模型内部并不包含相关的知识,要么开始开始胡说八道,要么说不知道。这是很多大模型都存在的一个问题。
在这里插入图片描述
然后我给他上外挂,我把xtuner相关的知识放在这个文件中,然后让他去读取。在这里插入图片描述
运行的时候再次发现了一个bug:
在这里插入图片描述
在这里插入图片描述
模型的路径是下载到了/root/model/sentence-transformer’,引用的却是:/root/model/paraphrase-multilingual-MiniLM-L12-v2
改成正确路径之后
再次去问它相同的问题,奇迹出现了:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值