本文记录了本地化部署Qwen 1.8B以及7B chat模型的过程。
1、克隆项目文件
1.1 克隆qwen项目到本地
git clone https://github.com/QwenLM/Qwen
1.2 创建虚拟环境
conda create -n qwen python=3.11
conda activate qwen
1.3 创建安装依赖环境
pip install -r requirements.txt
1.4 安装GPU版本的pytorh
conda install pytorch=