jianzhnie/LLamaTuner

下载了百川7b模型后,直接在gradio_webserver.py里推理,生成内容乱码问题

Closed this issue · 3 comments

image
你好,请教一下,如上图,下载了百川7b模型后,直接在gradio_webserver.py里推理,生成内容乱码问题

另外 日志里 还报这个错, next_tokens = torch.multinomial(probs, num_samples=2 * num_beams)
RuntimeError: probability tensor contains either inf, nan or element < 0

百川7b是原始的模型,然后这样执行的 python gradio_webserver.py --model_name_or_path /models/Baichuan-7B