jianzhnie/LLamaTuner
Easy and Efficient Finetuning LLMs. (Supported LLama, LLama2, LLama3, Qwen, Baichuan, GLM , Falcon) 大模型高效量化训练+部署.
PythonApache-2.0
Issues
- 0
参数设置
#102 opened - 0
不同样式的样本对应什么样的情形,如何根据自己的需求选择样本的样式
#101 opened - 0
该项目与qlora的差别
#100 opened - 0
批量推理时结果异常
#98 opened - 1
微调后的Llama-2-7b,在模型加载时出错
#97 opened - 2
- 1
llama-2-13b的模型用单卡跑lora就会报错
#95 opened - 1
总是这个错误怎么解决
#93 opened - 2
[问题]有关训练可视化
#92 opened - 2
About llama-2-70B fine-tuning
#91 opened - 2
zero3保存的模型无法加载
#90 opened - 1
如何使用自己的数据集
#89 opened - 1
llama2-13B和llama2-70b微调所需要的显卡配置
#87 opened - 3
- 3
- 1
Baichuan7B使用lora微调后测试时总会再次输出query
#73 opened - 3
单机多卡并行训练报错
#69 opened - 13
多卡似乎不能将每张卡跑满,请问如何才能让每张卡的计算负载跑满呢
#66 opened - 4
微调训练失败
#63 opened - 1
中文文档里没写对baichuan-13B的支持,但英文写了
#62 opened - 1
多卡加速支持evalution吗
#61 opened - 1
data_utils.py 是不是有问题?
#59 opened - 1
Would you support RWKV?
#57 opened - 4
请问支持Baichuan 13B吗?
#56 opened - 1
32g内存+3060ti6G显存可以finetune 7B的模型吗?
#54 opened - 1
- 4
百川7B 模型微调结果
#30 opened - 3
数据预处理标签问题
#24 opened - 0
合并的Bug修复,等会就出来验证结果了
#14 opened - 1
合并代码还有一个错误,中间少了一个变量
#12 opened - 6
- 1
utils/apply_lora.py 有个小Bug
#10 opened - 4
- 1
8bit和4bit训练效果对比有吗
#8 opened - 4
训练成功了,但是没有合并的脚本,请问如何合并?
#7 opened - 1
- 4
- 6
faile on 3090
#4 opened - 0
这么好的项目怎么没有issues,我先赞一个
#3 opened - 3
4bit loaded error
#2 opened - 1
What's the real LICENSING
#1 opened