AnAppleCore/MOSE

关于 Reverse Self-Distillation

Closed this issue · 3 comments

您好,请问在 Reverse Self-Distillation 时,是如何对齐学生与教师特征的通道数?

我们在得到每个学生的feature_map之后,加入了降采样的辅助downsampling convolution,一边降低feature map的空间维度大小,一边提升channel数量。具体代码请参考./models/Resnet18_SD.py中的DownConv_make_feature_layer

好的,感谢您的解答

希望对你有所帮助 ;)