在我们的项目中,关于大模型的部署是很重要的一环。本来打算本地部署MING的,然而要求运行要求显存大于15GB,只好放弃本地部署,改为远程部署。
MING Github地址
MediaBrain-SJTU/MING: 明医 (MING):中文医疗问诊大模型 (github.com)
最开始想尝试使用ModelScope或者阿里云进行部署,但原模型在Huggingface上,而huggingface上的模型格式与modelscope并不一样,而阿里云的PAI-EAS的GPU服务器的价格也不便宜,一个小时要6RMB,所以一小时2.5RMB左右的autodl就成为了最佳备选。在看到这篇文章:
成功在autodl上部署了ChatGLM后,便也想尝试将MING部署在AutoDL上
首先注册AutoDL后,在AutoDL上随便选择一个GPU服务器
选择镜像
我这里选择的环境是Pytorch 2.1.0+Python3.10+CUDA12.1,和MING的测试环境有所不同,但几乎没有影响,不