
填写开发机名称;选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击“立即创建”。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。

排队等待一小段时间,点击“进入开发机”。

点击左上角图标,切换为终端(Terminal)模式。

1.2 创建conda环境
InternStudio开发机创建conda环境(推荐)
由于环境依赖项存在torch,下载过程可能比较缓慢。InternStudio上提供了快速创建conda环境的方法。打开命令行终端,创建一个名为lmdeploy的环境:
studio-conda -t lmdeploy -o pytorch-2.1.2
环境创建成功后,提示如下:

本地环境创建conda环境
注意,如果你在上一步已经在InternStudio开发机上创建了conda环境,这一步就没必要执行了。
打开命令行终端,让我们来创建一个名为lmdeploy的conda环境,python版本为3.10。
conda create -n lmdeploy -y python=3.10
环境创建成功后,提示如下:

1.3 安装LMDeploy
接下来,激活刚刚创建的虚拟环境。
conda activate lmdeploy
安装0.3.0版本的lmdeploy。
pip install lmdeploy[all]==0.3.0
等待安装结束就OK了!
2.LMDeploy模型对话(chat)
2.1 Huggingface与TurboMind
HuggingFace
HuggingFace是一个高速发展的社区,包括Meta、Google、Microsoft、Amazon在内的超过5000家组织机构在为HuggingFace开源社区贡献代码、数据集和模型。可以认为是一个针对深度学习模型和数据集的在线托管社区,如果你有数据集或者模型想对外分享,网盘又不太方便,就不妨托管在HuggingFace。
托管在HuggingFace社区的模型通常采用HuggingFace格式存储,简写为HF格式。
但是HuggingFace社区的服务器在国外,国内访问不太方便。国内可以使用阿里巴巴的MindScope社区,或者上海AI Lab搭建的OpenXLab社区,上面托管的模型也通常采用HF格式。
TurboMind
TurboMind是LMDeploy团队开发的一款关于LLM推理的高效推理引擎,它的主要功能包括:LLaMa 结构模型的支持,continuous batch 推理模式和可扩展的 KV 缓存管理器。
TurboMind推理引擎仅支持推理TurboMind格式的模型。因此,TurboMind在推理HF格式的模型时,会首先自动将HF格式模型转换为TurboMind格式的模型。该过程在新版本的LMDeploy中是自动进行的,无需用户操作。
几个容易迷惑的点:
- TurboMind与LMDeploy的关系:LMDeploy是涵盖了LLM 任务全套轻量化、部署和服务解决方案的集成功能包,TurboMind是LMDeploy的一个推理引擎,是一个子模块。LMDeploy也可以使用pytorch作为推理引擎。
- TurboMind与TurboMind模型的关系:TurboMind是推理引擎的名字,TurboMind模型是一种模型存储格式,TurboMind引擎只能推理TurboMind格式的模型。
- 2.2 下载模型
- 本次实战营已经在开发机的共享目录中准备好了常用的预训练模型,可以运行如下命令查看:
- ls /root/share/new_models/Shanghai_AI_Laboratory/
- 显示如下,每一个文件夹都对应一个预训练模型。
- 编辑
- 以InternLM2-Chat-1.8B模型为例,从官方仓库下载模型。
- InternStudio开发机上下载模型(推荐)
- 如果你是在InternStudio开发机上,可以按照如下步骤快速下载模型。
- 首先进入一个你想要存放模型的目录,本教程统一放置在Home目录。执行如下指令:
- cd ~
- 然后执行如下指令由开发机的共享目录软链接或拷贝模型:
- ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b /root/
- # cp -r /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b /root/
- 执行完如上指令后,可以运行“ls”命令。可以看到,当前目录下已经多了一个
internlm2-chat-1_8b文件夹,即下载好的预训练模型。 - ls
- 编辑
- 由OpenXLab平台下载模型
- 注意,如果你在上一步已经从InternStudio开发机上下载了模型,这一步就没必要执行了。
Details
上一步介绍的方法只适用于在InternStudio开发机上下载模型,如果是在自己电脑的开发环境上,也可以由OpenXLab下载。在开发机上还是建议通过拷贝的方式,因为从OpenXLab平台下载会占用大量带宽~
首先进入一个你想要存放模型的目录,本教程统一放置在Home目录。执行如下指令:
cd ~
OpenXLab平台支持通过Git协议下载模型。首先安装git-lfs组件。
- 对于root用于请执行如下指令:
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | bash
apt update
apt install git-lfs
git lfs install --system
- 对于非root用户需要加sudo,请执行如下指令:
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
sudo apt update
sudo apt install git-lfs
sudo git lfs install --system
安装好git-lfs组件后,由OpenXLab平台下载InternLM2-Chat-1.8B模型:
git clone https://code.openxlab.org.cn/OpenLMLab/internlm2-chat-1.8b.git
这一步骤可能耗时较长,主要取决于网速,耐心等待即可。
下载完成后,运行ls指令,可以看到当前目录下多了一个internlm2-chat-1.8b文件夹,即下载好的预训练模型。
ls
注意!从OpenXLab平台下载的模型文件夹命名为1.8b,而从InternStudio开发机直接拷贝的模型文件夹名称是1_8b,为了后续文档统一,这里统一命名为1_8b。
mv /root/internlm2-chat-1.8b /root/internlm2-chat-1_8b

最低0.47元/天 解锁文章
629

被折叠的 条评论
为什么被折叠?



