xusenlinzy/api-for-open-llm

internlm2-chat-7b 部署完停不下来,是不是模板的问题啊

Closed this issue · 4 comments

提交前必须检查以下项目 | The following items must be checked before submission

  • 请确保使用的是仓库最新代码(git pull),一些问题已被解决和修复。 | Make sure you are using the latest code from the repository (git pull), some issues have already been addressed and fixed.
  • 我已阅读项目文档FAQ章节并且已在Issue中对问题进行了搜索,没有找到相似问题和解决方案 | I have searched the existing issues / discussions

问题类型 | Type of problem

效果问题 | Effectiveness issues

操作系统 | Operating system

Linux

详细描述问题 | Detailed description of the problem

使用internlm2 模板部署过之后,模型在输出正常问题之后还是会继续输出直到最大token

Dependencies

# 请在此处粘贴依赖情况
# Please paste the dependencies here

运行日志或截图 | Runtime logs or screenshots

# 请在此处粘贴运行日志
# Please paste the run log here

PROMPT_NAME指定为internlm2
输出内容中有特殊字符吗

PROMPT_NAME指定为internlm2 输出内容中有特殊字符吗

使用的最新的代码,PROMPT_NAME就是指定的internlm2
image

@xusenlinzy
还有orionstar 的template是不是也需要更新啊
这是官网的:
image

@xusenlinzy 还有orionstar 的template是不是也需要更新啊 这是官网的: image

是的,需要更新一下