Passer1072/RookieAI_yolov8

实测AMD卡可以用Zluda跑起来 希望增加一下对AMD的处理

Opened this issue · 4 comments

修改py文件 禁用 cuDNN 才能使用 不然会报错
在RookieAI_YOLOv8_V2.4.3.py
import torch
torch.backends.cudnn.enabled = False

老哥,可以出个教程吗,大概思路就行,我也是AMD的,现在用的是dml,推理速度不行

目前计划在cuda不可用时自动禁用cudnn

已发布新版本

3e6ba22

关于教程(内容摘自@kurorobakaka 原始回答)

  1. 安装 AMD HIP SDK
  2. 下载并解压缩 zluda,并将其放置在您想要的任何位置
  3. 使用readme内代码正常安装torch
  4. venv\Lib\site-packages\torch\lib\cublas64_11.dll 替换为 ZLUDA\cublas.dll
  5. venv\Lib\site-packages\torch\lib\cusparse64_11.dll 替换为 ZLUDA\cusparse.dll
  6. 将 HIP SDK 和 zluda 目录添加到 Path 中