GXKIM opened this issue 8 months ago · 1 comments
torch 2.1 transformers:4.37.1 显卡:A800 手动安装装进去了,但是检测不到flash_attn 直接用pip 装不进去 去github flash_attn 是支持A800的
这个是transformers的检测机制问题,可以在源代码目录试试pip install .