HFAiLab/OpenCastKit

graphcast调用的库函数被官方废除的问题

CXL-edu opened this issue · 0 comments

在train_graphcast.py文件的train方法中,有下面两行代码。

param_groups = timm.optim.optim_factory.add_weight_decay(model, args.weight_decay)
optimizer = torch.optim.AdamW(param_groups, lr=args.lr, betas=(0.9, 0.95))

我查看timm的文档,和timm.optim.optim_factory的源代码都没有找到add_weight_decay方法。代码中args.weight_decay参数是一个浮点数0.05
请问这里的作用是不是等效于下面代码?因为我不确定第一行代码中传入model是否有其他效果?

optimizer = torch.optim.AdamW(lr=args.lr, weight_decay=args.weight_decay, betas=(0.9, 0.95))