Issues
- 2
SFT之后的OLMo模板跟OLMo meta template不一致,后续评测时需要修改
#3860 opened - 1
Docker 构建报错 RuntimeError: can't start new thread
#3859 opened - 1
pretain增量后的chat重复输入的内容
#3858 opened - 1
加载checkpoint相关问题
#3857 opened - 1
关于全参数微调loss的问题
#3856 opened - 1
License 缺少copyright名字
#3855 opened - 3
KTO和DPO显存占用对比
#3854 opened - 1
FSDP + Qlora Faill
#3853 opened - 5
使用KTO进行多机训练过程中再进行验证,报错RuntimeError: still have inglight params [{id:388, "status":"AVALIBLE"}]
#3852 opened - 7
llama3-8B-base模型全量微调mmlu掉点
#3851 opened - 1
dpo训练后导出模型
#3850 opened - 1
- 5
- 2
KTO训练报错
#3847 opened - 1
ceval评测结果都为0
#3846 opened - 2
历史提交包含git lfs,导致clone后无法上传到自建git平台
#3845 opened - 0
出现乱码该如何解决
#3844 opened - 1
如何自定义损失函数
#3843 opened - 3
- 5
lora微调是否支持deepspeed
#3841 opened - 1
Ascend NPU训练成功但是推理报错
#3840 opened - 1
【ascend】 RuntimeError: [ERROR] HCCL error in: torch_npu/csrc/distributed/ProcessGroupHCCL.cpp:64
#3839 opened - 2
部署自己模型的api
#3838 opened - 1
eval运行mmlu时,results.json中的结果少了一项
#3837 opened - 1
- 3
llama factory推理时,如何配置seed参数
#3834 opened - 0
- 1
- 2
关于llama2变种模型做可控生成,orpo后效果没有lora微调效果好的问题
#3831 opened - 1
如何使用本地模型进行训练
#3830 opened - 1
attn_implementation 不起作用
#3828 opened - 1
利用 vLLM 部署 OpenAI API
#3827 opened - 1
deepspeed不起作用
#3826 opened - 3
显存大小与readme不符
#3825 opened - 3
训练日志记录不完整
#3824 opened - 3
VLLM部署api自动使用Ray集群,部署失败
#3823 opened - 0
- 2
adapter_name_or_path 继续训练sft的adapter
#3821 opened - 3
predict时如何生成多条预测结果
#3820 opened - 1
使用hhrlhf数据集时报错
#3818 opened - 3
使用自定义数据预训练报错,应当如何排查问题
#3817 opened - 1
cuda 内存溢出
#3816 opened - 1
在Mac M系芯片的电脑上是否只支持FP32精度的微调啊?
#3815 opened - 2
使用Baichuan2-7B-Chat批量推理结果出现乱码
#3814 opened - 1
llama3-8b-base 微调后重复输出
#3813 opened - 2
Confused about the llama-pro demo. Why `num_layers` 49 should be divisible by `num_layer_trainable` 2.
#3811 opened - 0
昇腾多卡训练问题
#3810 opened - 1
7B模型全量微调60GB的执行脚本如何编写?
#3809 opened - 1
请问现在还有DPO微调的整个过程的示例吗?
#3808 opened - 4