使用 8 x 4090 微调 llama3-1-8B 后,询问无输出反馈。
Sakkana opened this issue · 5 comments
Sakkana commented
Sakkana commented
LinB203 commented
same question.
Sakkana commented
update:
base模型和lora权重合并后保存为新模型(merge_and_unload、save_pretrained)后,使用vllm可以完成部署推理。
#教程中的推理方式无输出。(仅限llama3.1,Qwen2-7b、bilibili-index、DeepSeek等正常)
Tsumugii24 commented
update:
base模型和lora权重合并后保存为新模型(merge_and_unload、save_pretrained)后,使用vllm可以完成部署推理。
#教程中的推理方式无输出。(仅限llama3.1,Qwen2-7b、bilibili-index、DeepSeek等正常)
可能是版本的问题,最近更新了 requirments
,可以按照新的 package version
来试一下,我个人在目前的环境配置中没有遇到问题