Issues
- 1
evaluate_grounding.py测试报错json.decoder.JSONDecodeError: Expecting value: line 1 column 2 (char 1)
#333 opened - 3
[BUG] 微调时数据集中图片无法正确加载
#332 opened - 1
- 0
- 5
💡 [REQUEST] - 请问MAX 相对 开源版本能力的提升是怎么造成的?
#329 opened - 2
- 1
[BUG] <title>int4 slower than fp16
#326 opened - 3
[BUG] <【本地加载模型的问题】>
#325 opened - 1
- 0
请问QWen-VL-Chat模型进行训练的损失函数接口在哪里呢?
#323 opened - 0
Repetition
#322 opened - 1
Qwen-vl-plus和Qwen-vl-max有对chat进行优化吗?
#321 opened - 1
- 3
- 2
💡 [REQUEST] - <title>可以支持ollama部署吗?
#318 opened - 4
[BUG] <title> 网页和api的性能差距太大,如何对齐?
#317 opened - 0
💡 [REQUEST] - <title>请问有方法可以提取图文embedding吗?
#316 opened - 0
💡 [REQUEST] - <title> 请问可以支持pretrain吗?
#315 opened - 1
- 0
fintune.py中preprocess token的问题
#313 opened - 1
💡 [REQUEST] - <有计划训练 Qwen-VL Small 版本吗>
#312 opened - 1
<box>这个token是否有特殊含义?
#311 opened - 2
- 2
网页版(hugging face)如何提示才会保证一定会输出检测框
#309 opened - 0
openai_api.py的接口参数协议兼容问题
#308 opened - 1
[BUG] <title>请问如何指定缓存目录?
#307 opened - 0
eval docvqa
#306 opened - 3
type image 不支持,是不是版本有问题
#305 opened - 3
- 0
- 4
base model + lora vs merged后的模型进行推理不一致
#302 opened - 1
- 31
- 7
openai_api.py调用输入格式[BUG] <title>
#299 opened - 1
[BUG] <title>请问微调的时候图片描述的默认prompt是什么
#298 opened - 8
- 1
- 0
- 4
本地跑模型就这么难吗??!!!
#294 opened - 1
- 3
[BUG] <title> 模型输出box坐标不是相对于原始输入图像的坐标
#292 opened - 0
- 0
- 2
[BUG] q-lora 微调qwen-vl-chat-int4 报错
#289 opened - 5
[BUG] <全量参数微调>运行finetune_ds.sh后卡住
#288 opened - 6
[BUG] <title>合并lora权重时遇到AttributeError: 'QWenTokenizer' object has no attribute 'IMAGE_ST'问题
#287 opened - 0
- 1
- 1
Will there be a Qwen-1.5 version of Qwen-VL?
#282 opened - 4