OpenLMLab/LOMO

为什么LOMO并没有火起来呢?

Flywolfs opened this issue · 5 comments

个人感觉全参数FT还是会比LoRA这种Adapter的效果要好的,那为什么LOMO没有火起来呢?个人已经试过2张24GB的显卡用LOMO FT一个7B的BLOOM,感觉整体流程还蛮丝滑的,为什么在各个平台搜不到太多用LOMO的人呢,好奇怪。

太多训练细节了,不能即插即用=。=
里面很多超参数,我想迁移到别的模型上去简直头皮发麻。。。什么gradient overflow,什么gradient checkpointing,什么param_coordinator...
不知道哪些该迁移哪些不该。

个人感觉需要更加充分和更具有说服力的实验结果。
目前论文中比较了zero shot、lora和lomo的实验效果,但是缺少adam或者adamw的实验效果。
此前想尝试,但是成本过高,加上缺少lomo和adam的实验比较,所以没有继续研究。

个人感觉全参数FT还是会比LoRA这种Adapter的效果要好的,那为什么LOMO没有火起来呢?个人已经试过2张24GB的显卡用LOMO FT一个7B的BLOOM,感觉整体流程还蛮丝滑的,为什么在各个平台搜不到太多用LOMO的人呢,好奇怪。

请问微调之后的效果如何? @Flywolfs

太多训练细节了,不能即插即用=。= 里面很多超参数,我想迁移到别的模型上去简直头皮发麻。。。什么gradient overflow,什么gradient checkpointing,什么param_coordinator... 不知道哪些该迁移哪些不该。

Gradient checkpointing will also reduce the memory usage of forward activation, but the author does not seem to have any explanation or comparison. We are all giants standing on the shoulders of giants.

太多训练细节了,不能即插即用=。= 里面很多超参数,我想迁移到别的模型上去简直头皮发麻。。。什么gradient overflow,什么gradient checkpointing,什么param_coordinator... 不知道哪些该迁移哪些不该。

Gradient checkpointing will also reduce the memory usage of forward activation, but the author does not seem to have any explanation or comparison. We are all giants standing on the shoulders of giants.

We discussed gradient checkpointing in section 2 as related work. and compared at Table 1 on LOMO paper.