问题描述
最近在搞TGI,然后就需要安装对应版本2.6.1的flash_attention,按照官网上的几大要素都是ok的,结果安装还是卡死,查了查感觉也没有很好的解释。

解决办法
在确定了官网说的几个要素pytorch / cuda / ninja / packaging 都装好了之后,对应版本去官网对应的下载地址 ,找到自己对应的文件 ,https://github.com/bdashore3/flash-attention/releases ,下好了之后pip 安装 xxxx.whl就可以了。搞了几个小时。。
