HarukiYqM/Non-Local-Sparse-Attention

x3的model

Closed this issue · 8 comments

老师,您好。
我想问一下训练x3,x4的model只需要更改--scale --patch_size--pre_train这三个参数吗?为什么我把--pre_train设置成训练完成的x2的model之后会出现这个问题,如图所示
2021-09-27 11-03-17 的屏幕截图

是的,但使用这个codebase,NLSA应该可以正常运行,不会出现这个问题。不知道你是否做了其他修改

Also, please ensure torch<1.9.

老师,您好。我想问一下程序里有计算flops的代码?我想计算整个程序的flops怎么办?谢谢老师

不好意思,现在的代码版本暂时并不支持flops计算。但是每一步的复杂度都是确定的,你可以看看github上其他的flops开源库,然后根据code写一个自定义的复杂度函数。例如https://github.com/Lyken17/pytorch-OpCounter

HarukiYqM 老师您好,
testX3的model时需要设置--patch_size 为144吗?为什么我分别设置--patch_size为144和96输出的PSNR为一样的?是不是不用设置--patch_size,只需要设置scale即可?

是的,测试时patch_size对结果没有影响,只需要在训练时设置。