当服务器有4张卡的时候就训练不了了,准确来说是96/GPU数要是16的倍数。因为代码默认跑满四张卡,tensor的size不符合后面的处理。
Li-Gui-233 opened this issue · 1 comments
Li-Gui-233 commented
可以将network_train_meta_learning.py文件的第70行代码修改为self.mymodel = torch.nn.DataParallel(self.mymodel, device_ids=[0, 1, 2])
lovelyqian commented
Thanks,u are right!