VMamba的环境配置

本人在配置VMamba的环境时出现太多问题,这里记录一下自己的配置流程,方便后续的学习。


配置流程

远程服务器的配置
服务器镜像:PyTorch 2.0.0
Python 3.8(ubuntu20.04)
Cuda 11.8

# 1、创建虚拟环境
conda create -n vmamba python=3.10
conda activate vmamba

# 2、选择cuda-11.8
conda install cudatoolkit==11.8 -c nvidia

# 3、选择这个版本的torch、torchvision、cuda
conda install pytorch==2.0.0 torchvision==0.15.0 torchaudio==2.0.0 pytorch-cuda=11.8 -c pytorch -c nvidia

# 4、packaging
conda install packaging

# 5、进入VMamba环境下
git clone https://github.com/MzeroMiko/VMamba.git
cd VMamba
pip3 install -r requirements.txt

cd kernels/selective_scan
pip3 install .

# 6、安装causal-conv1d & mamba-ssm
pip install causal-conv1d==1.1.1
pip3 install mamba-ssm
出现卡顿是正常的,需要等待一段时间

# 7、安装openlab环境
pip install mmcv==2.0.0 -f https://download.openmmlab.com/mmcv/dist/cu118/torch2.0/index.html
pip install mmengine==0.10.1
pip install mmdet==3.3.0 mmsegmentation==1.2.2 mmpretrain==1.2.0

解决各类报错:

配置好环境后出现的一系列报错,主要有以下3个:

第一个报错是:运行产生.csm_triton error

根据github上issues的讨论,意思是triton版本太低,需要安装新版本的triton。

注:triton在Linux中可以直接使用以下安装指令,而windows环境下不能直接安装。

# 卸载原来的triton
pip uninstall triton

# 安装新版
pip install -U --index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/Triton-Nightly/pypi/simple/ triton-nightly

第二个报错是:
assert selective_scan_backend in [None, “oflex”, “mamba”, “torch”]

根据github里issues网友的讨论,建议将classification/models/vmamba.py中的"core" 替换为 “oflex”。

在这里插入图片描述
改为下面这个
在这里插入图片描述


第三个报错是:numpy版本太高,需要降低

也是根据github里面的回答,意思是numpy版本太高,需要降低。

pip uninstall numpy
pip install numpy==1.26.3

参考资料:

VMamba原作者在github上的回答
安装VMamba并测试VSSBlock
ubuntu 22.04 LTS openai triton 安装
Linux下VMamba 环境复现+环境测试
Linux下VMamba 环境复现+环境测试(解决causal_conv1d和mamba_ssm无法安装)本人亲测有用

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值