graphcast调用的库函数被官方废除的问题
CXL-edu opened this issue · 0 comments
CXL-edu commented
在train_graphcast.py文件的train方法中,有下面两行代码。
param_groups = timm.optim.optim_factory.add_weight_decay(model, args.weight_decay)
optimizer = torch.optim.AdamW(param_groups, lr=args.lr, betas=(0.9, 0.95))
我查看timm
的文档,和timm.optim.optim_factory
的源代码都没有找到add_weight_decay
方法。代码中args.weight_decay
参数是一个浮点数0.05
。
请问这里的作用是不是等效于下面代码?因为我不确定第一行代码中传入model
是否有其他效果?
optimizer = torch.optim.AdamW(lr=args.lr, weight_decay=args.weight_decay, betas=(0.9, 0.95))