Issues
- 1
preprocess_supervised_dataset问题
#3749 opened - 3
- 1
在训练使用llama2-7b-hf时报错
#3745 opened - 1
数据集与训练方法相关问题
#3744 opened - 1
什么时候进行微调,什么时候使用RAG呢?
#3743 opened - 1
使用zero3, 但模型参数没有分布式
#3742 opened - 6
怎么在单机多卡上做”持续预训练“?
#3740 opened - 2
多模态模型微调能否支持多轮对话中包含图片输入的数据集?
#3739 opened - 0
merge lora权重后的模型无法推理
#3738 opened - 2
无法加入微信群
#3737 opened - 5
web_demo.sh
#3736 opened - 3
请教一下如何在加载模型后实时更新lora?
#3735 opened - 0
Agent tuning 多轮会话使用不同的参数连续问相同的话题, 工具识别失败
#3734 opened - 0
在单机多卡训练过程结束后,当尝试加载模型以进行对话交互时,模型的响应出现了乱码现象。
#3733 opened - 2
改变词表大小无法运行怎么办?
#3732 opened - 2
推理遇到数据集加载问题
#3731 opened - 1
- 2
关于多轮对话的loss计算
#3729 opened - 4
执行webui的训练报IndexError: list index out of range
#3728 opened - 1
如何只训练前N层而冻结后面的层?
#3727 opened - 4
尝试将qwen1.5 14b llamafy后unsloth训练报错
#3726 opened - 1
请问现在支持合并llava的lora权重吗
#3725 opened - 1
- 0
多卡增量训练,数据集处理完后tokenizer都不进行的
#3723 opened - 4
使用longlora后,tran_loss稳步减小,eval_loss不断上升
#3722 opened - 1
- 1
- 1
- 1
- 7
在v100上用vllm推理时报错
#3717 opened - 15
- 1
- 1
请问下 intel ultra系列的NPU 可以使用吗?
#3714 opened - 2
微调后输出正确答案后胡言乱语
#3713 opened - 1
全参微调退出异常问题
#3712 opened - 2
- 1
多卡lora微调llama3如何合并
#3710 opened - 4
- 2
4张3090lora微调Qwen7B爆显存
#3708 opened - 1
Feature request: better support/documentation for dropout during early and/or late training
#3707 opened - 1
更新后,导出模型去哪了?
#3706 opened - 1
预训练损失函数一直震荡,不收敛
#3705 opened - 4
- 1
trainer_log.jsonl 输出不完整?
#3703 opened - 4
- 1
图片数据集,images读取文件路径错误
#3700 opened - 1
Timeout
#3698 opened - 3
关于sft训练的监督问题
#3697 opened - 1
Meta-Llama-3-8B全参数继续预训练A800单卡跑不起来
#3696 opened - 2
llama3 单机多卡不可训练,exits with return code = -7
#3695 opened