Issues
- 0
导出MiniCPM-V-2_6的ONNX模型出错
#45 opened - 0
有商业需求,请问一下各模型的性能怎么样。
#44 opened - 0
请问后续有支撑qwen2-vl的计划嘛?
#43 opened - 1
- 2
请问支持Langchain-Chatchat吗?
#40 opened - 2
请问有支持iFlytekSpark的模型计划吗
#38 opened - 3
- 2
Support for Llama 3.1 model
#36 opened - 3
Qwen1.5 1b8和Qwen2 7b推理到最后出现重复性回答
#35 opened - 0
chat.cpp:141: void Qwen::init(const std::vector<int>&, std::string): Assertion `true == ret' failed.
#34 opened - 2
- 0
标准提问格式,请大家按照这个方式进行提问~(重要)(非常重要)
#31 opened - 2
Qwen2可以转onnx,转bmodel的时候出现以下问题
#30 opened - 6
运行llama3输出为乱序
#29 opened - 0
Waiting for Qwen2 gradio web demo
#27 opened - 1
Qwen2-7B-Instruct 导出 onnx 报错
#25 opened - 1
请问我想将列表里没有的大模型转成bmodel,应该怎么做?
#24 opened - 2
运行模型出错
#23 opened - 0
- 0
Llama3 pipeline output � error decode
#19 opened - 2
ChatGLM3的web demo无法运行成功
#18 opened - 2
导出onnx出现warning
#16 opened - 1
- 3
llma3 is not available after conversion
#13 opened - 2
问题太长导致回复到一半就终止了
#12 opened - 1
- 2
Web client not working
#10 opened - 1
- 2
GPU memory allocation failure
#8 opened - 6
- 1
- 2
关于CV180x的适配问题
#4 opened - 17
转换qwen1.5出现的问题
#3 opened - 5
能不能对不同的模型(尤其是差异很大的模型,比如 SD),分别写下教程?
#2 opened - 2
万人血书MiniCPM-2B!
#1 opened