训练过程占用显存过高的问题
Closed this issue · 8 comments
xyx361100238 commented
你好,我在使用large模型进行微调,之前使用的huggingface的脚本,在单卡上设置batch_size=16 A100 80G的显存也是够的,但是我使用咱们脚本时只能设置batch_size=4 (63G),这部分怎么改进? 多谢
xyx361100238 commented
@yeyupiaoling 是这边不正常吗?还是本身就需要这么大的显存?
yeyupiaoling commented
我batch size=2 时,显存应该是8,9g这样子
xyx361100238 commented
试过设置为4吗?
xyx361100238 commented
yeyupiaoling commented
你应该是没有开量化8位。
xyx361100238 commented
确实如此,改成8位量化,降了5~6倍;改成量化模型后,对模型的整体性能会有多少影响?
xyx361100238 commented
还能正常使用ggml工程吗?
yeyupiaoling commented
可以,我项目中有提供转换ggml模型格式的代码