刚刚又发现其实不用安装flash_attn包也能运行YOLOv12。
方法一:不安装flash_attn包
1.将D:\personalFiles\objectDetection\comparativeExperiment\yolov12\ultralytics\nn\modules\block.py里的代码
try:
from flash_attn.flash_attn_interface import flash_attn_func
except Exception:
assert False, "import FlashAttention error! Please install FlashAttention first."
删去或注释掉。
2.再将里面的if x.is_cuda:替换为if False:即可
方法二:安装flash_attn包
给出本人运行成功的参考版本
0.python版本:3.11
1.CUDA版本:12.2
2.torch版本:2.3.1+cu121 ,安装此版本代码:
①从官网安装(应该慢些):pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121
②更快的网站:pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 -f https://mirrors.aliyun.com/pytorch-wheels/cu121
3.下载有关flash_attn包的whl文件至桌面,下载网站为

最低0.47元/天 解锁文章
1740





