KimMeen/Time-LLM

请问用RTX3090 24GB显存能跑动这个模型吗

Closed this issue · 3 comments

请问用RTX3090 24GB显存能跑动这个模型吗

可以,llama的batchsize设为4可以跑起来,就是很慢

可以的,缩小batch_size即可,或者减少层数,替换base model为gpt2或者bert,都可以有效减少显存开销

@kwuking 你好,请问能用这个显卡运行llama模型吗