xusenlinzy/api-for-open-llm

💡 [REQUEST] - 需要支持Qwen-14B-chat

wuzechuan opened this issue · 3 comments

起始日期 | Start Date

09/25/2023

实现PR | Implementation PR

No response

相关Issues | Reference Issues

No response

摘要 | Summary

qwen14B模型发布了,可以支持下这个模型吗

基本示例 | Basic Example

缺陷 | Drawbacks

未解决问题 | Unresolved questions

应该是可以的,和qwen-7b使用方式一样,模型的关键代码没什么变化

vllm 启动不了,非vllm的可以