- 博客(8)
- 收藏
- 关注
原创 InternLM Task-L1 OpenCompass评测实践
在 OpenCompass中评估一个模型通常包括以下几个阶段:配置 -> 推理 -> 评估 -> 可视化。3、打开 opencompass文件夹下configs/models/hf_internlm/的。(自定义数据集后,最起码需要对配置文件。2、 解压评测数据集到 data/ 处。一、OpenCompass介绍。二、OpenCompass应用。OpenCompass工作流。5、评测完成后,如下图所示。
2024-08-09 10:38:35
190
原创 InternLM Task-L1 Xtuner微调实践
LoRA微调最后训练出来的是一个adapter模型,需要与原来的模型进行整合。QLoRA是LoRA方法的改进,首先将基座模型量化为4-bit格式,使用高精度权重和可学习的低秩适配器降低微调成本,提高模型精度。训练过程中产生的所有文件,包括日志、配置文件、检查点文件、微调后的模型等,默认保存在。(2)指令跟随微调:让模型学会对话模板,根据人类指令进行对话。代表复制的目标路径。在我们的输入的这个命令中,我们的。模型进行指令微调,所以与我们的需求最匹配的配置文件是。# 将对应的name进行修改(在第4行的位置)
2024-08-09 10:37:19
177
原创 InternLM Task-L1 InternLM+LlamaIndex RAG实践
4、下载 Sentence Transformer 模型。1、创建开发机(点击 选择镜像 使用。3、安装LlamaIndex和相关包。镜像,然后在资源配置中,使用。的选项),接入VScode。2、配置环境,下载需要的库。5、下载NLTK相关资源。
2024-08-09 10:36:00
186
原创 InternLM Task-L1 提示词工程实践
一、利用LMDeploy对InternLM2-chat-1.8b进行模型部署部署。二、利用LangGPT优化词,使LLM正确计算13.8和13.11的大小。用LMDeploy将开源的Intern2-1.8b部署为API格式。创建虚拟环境并激活,安装需要的库。进行图形化界面调用,如下图所示。设置LangGPT如下所示。
2024-08-09 02:44:32
185
原创 InternLM Task-L1 8G显存玩转书生大模型Demo关卡
3、命令行输入python/root/demo/cli_demo.py完成InternLM2-Chat-1.8B模型部署。一、使用Cli-demo完成InternLM2模型部署,并生成300字小故事。1、创建开发机,接入VScode。等待模型加载完成,键入内容。
2024-08-09 01:12:52
197
原创 InternLM Task-L1 HelloIntern关卡
以20B开源大模型为例,其性能全面领先相近量级的开源模型,如下图所示。二、InternLM的优点。一、书生.浦语大模型系列。三、大模型开发的全栈链条。
2024-08-08 17:52:57
265
原创 InternLM Task-L0 python关卡
(3)下载python debugger扩展,然后右上角选择python Debugger:debug Python File,然后在如图所示的地方设置断点进行调试。(2)创建wordcount.py文件,conda activate cheny激活之前创建的环境。二、VScode连接InternStudio debug笔记。(1)VScode与InternStudio 的SSH连接。一、wordacount函数。(4)调试过程如图所示。(5)最后运行结果如下。
2024-07-12 00:03:19
270
1
原创 InternLM Task-L0 Linux关卡
(1)输入命令 conda create -n cheny=3.10,创建名为cheny的虚拟环境。(2)输入命令conda activate cheny激活名为cheny的虚拟环境。(2)创建hello_world.py文件,执行以下命令安装gradio库。(1)将开发机通过SSH端口映射到本地VS code中,如下图。(3)输入命令conda env list查看现有虚拟环境。(2)运行Hello_world.py,进入以下链接。(1)创建test.sh。(2)运行test.sh。
2024-07-11 17:19:50
248
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人