参考机智流官方教程
Llama3-Tutorial/docs/llava.md at main · SmartFlowAI/Llama3-Tutorial (github.com)
在开发机环境下,使用这个代码
studio-conda -t lmdeploy -o pytorch-2.1.2
conda activate lmdeploy
pip install -U lmdeploy[all]
ln -s /root/share/new_models/meta-llama/Meta-Llama-3-8B-Instruct ~/model/Meta-Llama-3-8B-Instruct
LMDeploy服务(serve)
在前面的章节,我们都是在本地直接推理大模型,这种方式成为本地部署。在生产环境下,我们有时会将大模型封装为 API 接口服务,供客户端访问。
启动API服务器
通过以下命令启动API服务器