使用 inference_hf.py 推理异常
Xiaoshu-Zhao opened this issue · 2 comments
Xiaoshu-Zhao commented
提交前必须检查以下项目
- 请确保使用的是仓库最新代码(git pull)
- 已阅读项目文档和FAQ章节并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案。
- 第三方插件问题:例如llama.cpp、text-generation-webui等,建议优先去对应的项目中查找解决方案。
问题类型
本地推理
基础模型
llama-3-chinese-8b-instruct-v2
操作系统
wsl2
详细描述问题
python3 inference_hf.py \
--base_model /mnt/c/Users/zhaox/OneDrive/桌面/code/llm/models/origin_model/llama-3-chinese-8b-instruct-v2 \
--with_prompt \
--interactive
我希望在本地用wsl2
运行 llama3。我参考了 ReadMe
里面的用 hugging face 推理的方法,发现推理的时候会卡住,显卡的占用率也很低。请问是什么问题呢
依赖情况(代码类问题务必提供)
# 请在此处粘贴依赖情况(请粘贴在本代码块里)
我的电脑使用的 RTX 3060, cuda 版本如下:
PyTorch version: 2.3.0+cu121
CUDA available: True
CUDA version: 12.1
cuDNN version: 8902
GPU: NVIDIA GeForce RTX 3060
运行日志或截图
# 请在此处粘贴运行日志(请粘贴在本代码块里)
github-actions commented
This issue has been automatically marked as stale because it has not had recent activity. It will be closed if no further activity occurs. Thank you for your consideration.
github-actions commented
Closing the issue, since no updates observed. Feel free to re-open if you need any further assistance.