使用 Cli Demo 完成 InternLM2-Chat-1.8B 模型的部署,并生成 300 字小故事,记录复现过程并截图。
使用 LMDeploy 完成 InternLM-XComposer2-VL-1.8B 的部署,并完成一次图文理解对话,记录复现过程并截图。
使用 LMDeploy 完成 InternVL2-2B 的部署,并完成一次图文理解对话,记录复现过程并截图。
8G 显存玩转书生大模型 Demo
关卡任务
本关任务主要包括:
- InternLM2-Chat-1.8B 模型的部署(基础任务)
- InternLM-XComposer2-VL-1.8B 模型的部署(进阶任务)
- InternVL2-2B 模型的部署(进阶任务)
任务详情参见 8G 显存玩转书生大模型 Demo 任务。
创建开发机
我们选择 10% 的开发机,镜像选择为 Cuda-12.2。在输入开发机名称后,点击创建开发机。
在创建完成后,我们便可以进入开发机了!
环境配置
我们已经在 /root/share/pre_envs
中配置好了预置环境 icamp3_demo
可以通过如下指令进行激活:
conda activate /root/share/pre_envs/icamp3_demo
Cli Demo 部署 InternLM2-Chat-1.8B 模型
首先,我们创建一个目录,用于存放我们的代码。并创建一个 cli_demo.py
。
mkdir -p /root/demo
touch /root/demo/cli_demo.py
然后,我们将下面的代码复制到 cli_demo.py
中。
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name_or_path