自然语言处理:第六十九章 大模型推理框架神器 - VLLM部署篇

本人项目地址大全:Victor94-king/NLP__ManVictor: 优快云 of ManVictor

官方文档: Welcome to vLLM! — vLLM

项目地址: vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs


写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!



VLLM和TGI一样也是大模型部署应用非常广泛的一个库,下面我以蓝耘平台为例,教学一次Vllm的使用,大家可以选择相似的云平台作为使用。

  • 系统: Linux
  • python: 3.8 - 3.12
  • GPU: Nvidia - 4090
  • Cuda: 12.1

1. VLLM安装

  1. 用实例,这里我选择了个CUDA12.1.1 + Ubuntu22.04的系统,进去可以nvcc -V查看下cuda版本是否一致
    在这里插入图片描述

  2. 使用pip方法安装vLLM,记得配置下镜像源

    # (Recommended) Create a new conda environment.
    conda create -n myenv python=3.10 -y
    conda activate myenv
    
    # Install vLLM with CUDA 12.1.
    pip install vllm
    

    另外,如果你使用的也是蓝耘云,利用conda切换环境的时候会可能会遇到conda init 错误。蓝耘里conda init 有点问题,在.bashrc里把下面这一段配置文件加进去,然后再 source ~/.bashrc 就可以配置环境了

# >>> conda initialize >>>
# !! Contents within this block are managed by 'conda init' !!
__conda_setup=
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

曼城周杰伦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值