- 博客(7)
- 收藏
- 关注
原创 作业合集-书生浦语大模型实战化训练营
构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手,效果如下图所示,本作业训练出来的模型的输出需要。选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在。的 config.json 文件到本地(需截图下载过程)。熟悉 hugging face 下载功能,使用。复现课程知识库助手搭建过程 (截图)上成功部署(截图,并提供应用地址)python 包,下载。替换成自己名字或昵称!
2024-02-21 14:44:28
1032
原创 第一课-书生·浦语大模型全链路开源体系
数据-预训练框架-微调框架-部署工具-测评工具-agent应用工具箱。多模态智能体工具箱AgentLego介绍。评测框架OpenCompass介绍。大模型部署框架LMDeploy介绍。智能体框架Lagent介绍。
2024-02-21 13:37:23
431
原创 第六课-OpenCompass 大模型评测
本算法库的主要评测对象为语言大模型与多模态大模型。我们以语言大模型为例介绍评测的具体模型类型。基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。
2024-02-21 13:29:53
969
原创 第五课-LMDeploy 的量化和部署
首先我们需要明白一点,服务部署和量化是没有直接关联的,量化的最主要目的是降低显存占用,主要包括两方面的显存:模型参数和中间过程计算结果。接下来我们切换到刚刚的终端(就是上图右边的那个「bash」,下面的「watch」就是监控的终端),创建部署和量化需要的环境。目录下的环境是官方未大家准备好的基础环境,因为该目录是共享只读的,而我们后面需要在此基础上安装新的软件包,所以需要复制到我们自己的 conda 环境(该环境下我们是可写的)。值得说明的是,以上的划分是一个相对完整的模型,但在实际中这并不是绝对的。
2024-02-21 13:07:46
5523
1
原创 第四课-XTuner 大模型单卡低成本微调实战
一个大语言模型微调工具箱。由MMRazor和MMDeploy联合开发。以数据集为例场景需求基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答领域对齐。此时,我们重新建一个文件夹来玩“微调自定义数据集”把前面下载好的internlm-chat-7b模型文件夹拷贝过来。别忘了把自定义数据集,即几个.jsonL,也传到服务器上。
2024-02-21 11:55:10
1156
原创 第三课-基于 InternLM 和 LangChain 搭建你的知识库
llm.predict("你是谁")构建检索问答链,还需要构建一个 Prompt Template,该 Template 其实基于一个带变量的字符串,在检索之后,LangChain 会将检索到的相关文档片段填入到 Template 的变量中,从而实现带知识的 Prompt 构建。# 我们所构造的 Prompt 模板template = """使用以下上下文来回答用户的问题。如果你不知道答案,就说你不知道。总是使用中文回答。问题: {question}可参考的上下文:···{context}
2024-02-21 11:36:02
1115
原创 第二节课-轻松玩转书生·浦语大模型趣味 Demo
大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素。这些模型在各种任务中展现出惊人的性能,比如自然语言处理、计算机视觉、语音识别等。这种模型通常采用深度神经网络结构,如BERTGPT( Generative Pre-trained Transformer )等。大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。
2024-02-21 11:00:02
814
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人