Fediory/HVI-CIDNet

在测试集上进行微调是什么意思

spec350 opened this issue · 7 comments

image
作者您好,如图所示,你在项目中对测试集进行了微调是什么意思?做了怎样的微调?

这里是指在训练的时候,针对Test测试集进行了额外的训练,以达到更好的PSNR,但这其实无法证明一个模型究竟好不好,因此我们不推荐这么做。

这里是指在训练的时候,针对Test测试集进行了额外的训练,以达到更好的PSNR,但这其实无法证明一个模型究竟好不好,因此我们不推荐这么做。

作者您好,我重新训练了您的代码在lolv1数据集上,使用的是代码中的默认setting,但是不使用perceptual loss的结果和您论文中使用perceptual loss的结果是差不多的,并没有达到您论文中不使用perceptual loss的效果

我们所提供的配置是一个普适性配置,即这个配置可能复现出我们的weights,但是需要运气(尤其是在LOLv1这个仅有15张图片的测试集上)。如果无法复现,可以对我们的配置进行修改,比如针对LOLv1,我们推荐降低batch size,提高crop size。

我们所提供的配置是一个普适性配置,即这个配置可能复现出我们的weights,但是需要运气(尤其是在LOLv1这个仅有15张图片的测试集上)。如果无法复现,可以对我们的配置进行修改,比如针对LOLv1,我们推荐降低batch size,提高crop size。

作者您好,我想问一下每个数据集训练时的corp size是不是一样的,我看论文中只写了crop size为256

不同数据集的确会有不同的crop size。在我们的研究中,发现crop size只会影响收敛速度,不影响性能。所以理论上256的crop也是能训练出我们的weights的。

@Fediory 作者您好,我在使用您提供的权重进行测试时,发现(LOLv1) v1 wo perc loss/ w gt mean这一个的psnr比您的结果(28.1405)更好,达到了28.20

您好,对于这个问题,我们的论文中的测试,都采用将进行gt mean之后的图像保存后再重新测试。因此如果您在PSNR上测出了更好的结果,属于正常现象。我们可以确保我们的所有weights都和论文中的结果对应上。