ssbuild/chatglm_finetuning

LoRA和ptv2微调均发生OOM

shenzhyzzz opened this issue · 4 comments

计算资源为A100 40G
LoRA微调设置batch_size=1,max_seq_length=1024勉强能跑(每张卡占用显存40G)
ptv2将batch_size和max_seq_length设置得再小都会出现OOM (例如batch_size=1, max_seq_length=16)

辛苦看下是否符合预期。

使用chatglm-6b-int4 进行ptv2呢 ?

这还没试过,不过还是想尽量跑个非量化版本的。我看官方的ptv2是能正常运行的(batch_size=4, max_seq_length=256),不过他们的问题是没法多卡跑,数据量多了就太慢了。你们是做了相应的改进吗?

这还没试过,不过还是想尽量跑个非量化版本的。我看官方的ptv2是能正常运行的(batch_size=4, max_seq_length=256),不过他们的问题是没法多卡跑,数据量多了就太慢了。你们是做了相应的改进吗?

你可以对应做个实验看看

确实你这边的ptv2没法跑非量化版本的。你们是在A100 80G上调试的吗?大概需要占用多少显存?