x3的model
Closed this issue · 8 comments
cheun726 commented
HarukiYqM commented
是的,但使用这个codebase,NLSA应该可以正常运行,不会出现这个问题。不知道你是否做了其他修改
HarukiYqM commented
Also, please ensure torch<1.9.
cheun726 commented
老师,您好。我想问一下程序里有计算flops的代码?我想计算整个程序的flops怎么办?谢谢老师
HarukiYqM commented
不好意思,现在的代码版本暂时并不支持flops计算。但是每一步的复杂度都是确定的,你可以看看github上其他的flops开源库,然后根据code写一个自定义的复杂度函数。例如https://github.com/Lyken17/pytorch-OpCounter
cheun726 commented
好的,谢谢您
…------------------ 原始邮件 ------------------
发件人: "HarukiYqM/Non-Local-Sparse-Attention" ***@***.***>;
发送时间: 2021年9月28日(星期二) 上午10:38
***@***.***>;
***@***.******@***.***>;
主题: Re: [HarukiYqM/Non-Local-Sparse-Attention] x3的model (#17)
不好意思,现在的代码版本暂时并不支持flops计算。但是每一步的复杂度都是确定的,你可以看看github上其他的flops开源库。
—
You are receiving this because you authored the thread.
Reply to this email directly, view it on GitHub, or unsubscribe.
Triage notifications on the go with GitHub Mobile for iOS or Android.
cheun726 commented
HarukiYqM 老师您好,
testX3的model时需要设置--patch_size 为144吗?为什么我分别设置--patch_size为144和96输出的PSNR为一样的?是不是不用设置--patch_size,只需要设置scale即可?
HarukiYqM commented
是的,测试时patch_size对结果没有影响,只需要在训练时设置。
cheun726 commented
谢谢老师,我是才接触超分,所以问题比较多,麻烦老师了,谢谢老师
…------------------ 原始邮件 ------------------
发件人: ***@***.***>;
发送时间: 2021年9月28日(星期二) 晚上6:42
收件人: ***@***.***>;
抄送: ***@***.***>; ***@***.***>;
主题: Re: [HarukiYqM/Non-Local-Sparse-Attention] x3的model (#17)
是的,测试时patch_size对结果没有影响,只需要在训练是设置。
—
You are receiving this because you authored the thread.
Reply to this email directly, view it on GitHub, or unsubscribe.
Triage notifications on the go with GitHub Mobile for iOS or Android.