本人在配置VMamba的环境时出现太多问题,这里记录一下自己的配置流程,方便后续的学习。
配置流程
远程服务器的配置
服务器镜像:PyTorch 2.0.0
Python 3.8(ubuntu20.04)
Cuda 11.8
# 1、创建虚拟环境
conda create -n vmamba python=3.10
conda activate vmamba
# 2、选择cuda-11.8
conda install cudatoolkit==11.8 -c nvidia
# 3、选择这个版本的torch、torchvision、cuda
conda install pytorch==2.0.0 torchvision==0.15.0 torchaudio==2.0.0 pytorch-cuda=11.8 -c pytorch -c nvidia
# 4、packaging
conda install packaging
# 5、进入VMamba环境下
git clone https://github.com/MzeroMiko/VMamba.git
cd VMamba
pip3 install -r requirements.txt
cd kernels/selective_scan
pip3 install .
# 6、安装causal-conv1d & mamba-ssm
pip install causal-conv1d==1.1.1
pip3 install mamba-ssm
出现卡顿是正常的,需要等待一段时间
# 7、安装openlab环境
pip install mmcv==2.0.0 -f https://download.openmmlab.com/mmcv/dist/cu118/torch2.0/index.html
pip install mmengine==0.10.1
pip install mmdet==3.3.0 mmsegmentation==1.2.2 mmpretrain==1.2.0
解决各类报错:
配置好环境后出现的一系列报错,主要有以下3个:
第一个报错是:运行产生.csm_triton error
根据github上issues的讨论,意思是triton版本太低,需要安装新版本的triton。
注:triton在Linux中可以直接使用以下安装指令,而windows环境下不能直接安装。
# 卸载原来的triton
pip uninstall triton
# 安装新版
pip install -U --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/Triton-Nightly/pypi/simple/ triton-nightly
第二个报错是:
assert selective_scan_backend in [None, “oflex”, “mamba”, “torch”]
根据github里issues网友的讨论,建议将classification/models/vmamba.py中的"core" 替换为 “oflex”。
改为下面这个
第三个报错是:numpy版本太高,需要降低
也是根据github里面的回答,意思是numpy版本太高,需要降低。
pip uninstall numpy
pip install numpy==1.26.3
参考资料:
VMamba原作者在github上的回答
安装VMamba并测试VSSBlock
ubuntu 22.04 LTS openai triton 安装
Linux下VMamba 环境复现+环境测试
Linux下VMamba 环境复现+环境测试(解决causal_conv1d和mamba_ssm无法安装)本人亲测有用