实测AMD卡可以用Zluda跑起来 希望增加一下对AMD的处理
Opened this issue · 4 comments
kurorobakaka commented
修改py文件 禁用 cuDNN 才能使用 不然会报错
在RookieAI_YOLOv8_V2.4.3.py
import torch
torch.backends.cudnn.enabled = False
kuailedeskwkd commented
老哥,可以出个教程吗,大概思路就行,我也是AMD的,现在用的是dml,推理速度不行
molanp commented
目前计划在cuda不可用时自动禁用cudnn
molanp commented
关于教程(内容摘自@kurorobakaka 原始回答)
Note
参考 :lshqqytiger/stable-diffusion-webui-amdgpu#385
参考2 :https://github.com/CS1o/Stable-Diffusion-Info/wiki/Installation-Guides
- 安装 AMD HIP SDK
- 下载并解压缩 zluda,并将其放置在您想要的任何位置
- 使用readme内代码正常安装torch
- 将
venv\Lib\site-packages\torch\lib\cublas64_11.dll
替换为ZLUDA\cublas.dll
- 将
venv\Lib\site-packages\torch\lib\cusparse64_11.dll
替换为ZLUDA\cusparse.dll
- 将 HIP SDK 和 zluda 目录添加到 Path 中