在测试集上进行微调是什么意思
spec350 opened this issue · 7 comments
这里是指在训练的时候,针对Test测试集进行了额外的训练,以达到更好的PSNR,但这其实无法证明一个模型究竟好不好,因此我们不推荐这么做。
这里是指在训练的时候,针对Test测试集进行了额外的训练,以达到更好的PSNR,但这其实无法证明一个模型究竟好不好,因此我们不推荐这么做。
作者您好,我重新训练了您的代码在lolv1数据集上,使用的是代码中的默认setting,但是不使用perceptual loss的结果和您论文中使用perceptual loss的结果是差不多的,并没有达到您论文中不使用perceptual loss的效果
我们所提供的配置是一个普适性配置,即这个配置可能复现出我们的weights,但是需要运气(尤其是在LOLv1这个仅有15张图片的测试集上)。如果无法复现,可以对我们的配置进行修改,比如针对LOLv1,我们推荐降低batch size,提高crop size。
我们所提供的配置是一个普适性配置,即这个配置可能复现出我们的weights,但是需要运气(尤其是在LOLv1这个仅有15张图片的测试集上)。如果无法复现,可以对我们的配置进行修改,比如针对LOLv1,我们推荐降低batch size,提高crop size。
作者您好,我想问一下每个数据集训练时的corp size是不是一样的,我看论文中只写了crop size为256
不同数据集的确会有不同的crop size。在我们的研究中,发现crop size只会影响收敛速度,不影响性能。所以理论上256的crop也是能训练出我们的weights的。
@Fediory 作者您好,我在使用您提供的权重进行测试时,发现(LOLv1) v1 wo perc loss/ w gt mean这一个的psnr比您的结果(28.1405)更好,达到了28.20
您好,对于这个问题,我们的论文中的测试,都采用将进行gt mean之后的图像保存后再重新测试。因此如果您在PSNR上测出了更好的结果,属于正常现象。我们可以确保我们的所有weights都和论文中的结果对应上。