从 GitHub release 安装
pip install https://github.com/Dao-AILab/flash-attention/releases/download/v2.3.3/flash_attn-2.3.3+cu122torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
分步手动安装
# 1. 先下载源码 wget https://github.com/Dao-AILab/flash-attention/archive/refs/tags/v2.3.3.tar.gz tar -xzf v2.3.3.tar.gz cd flash-attention-2.3.3 # 2. 从源码安装 pip install . # 或者使用 setup.py python setup.py install
3648

被折叠的 条评论
为什么被折叠?



