以AutoDL算力云平台为例,部署国产开源ChatGLM3b模型。
一、准备工作
(1)准备一台算力服务器
首先,进入AutoDL官网的算力时长选择算力服务器资源。
创建好后会自动跳转控制台的“容器实例”界面,稍等片刻后选择“快捷工具 > JupyterLab”开始部署。
通过jupyter lab的形式远程访问算力服务器后点击“终端”。
(2)准备开源大模型的部署环境
你想部署哪个大模型就事先去GitHub或者Hugging face找到代码仓库,然后在终端中克隆项目,本文以ChatGLM3为例。
如果你按照本文的方式,通过Github来进拉取项目的话,还必须开启一下学术资源加速。输入命令开启学术资源加速(此方法只能用在AutoDL中)
在终端中输入命令进行项目克隆。
# 开启学术加速
source /etc/network_turbo
# 克隆ChatGLM3的项目仓库
git clone https://github.com/THUDM/ChatGLM3.git
# 关闭学术加速
unset http_proxy && unset https_proxy
使用con