有关loss函数以及预训练模型的问题
yangqian-qian opened this issue · 2 comments
yangqian-qian commented
作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。
kaiwang960112 commented
可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的
yangqian-qian ***@***.***> 於 2021年6月29日週二 下午10:50寫道:
…
作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。
—
You are receiving this because you are subscribed to this thread.
Reply to this email directly, view it on GitHub
<#54>, or
unsubscribe
<https://github.com/notifications/unsubscribe-auth/AI6LK4CJLZDJVSJR236QPC3TVHMSHANCNFSM47QJ5WLQ>
.
yangqian-qian commented
嗯嗯,我明白了,非常感谢您的及时回复,祝您生活愉快!
…------------------ 原始邮件 ------------------
发件人: "kaiwang960112/Self-Cure-Network" ***@***.***>;
发送时间: 2021年7月2日(星期五) 晚上9:21
***@***.***>;
***@***.******@***.***>;
主题: Re: [kaiwang960112/Self-Cure-Network] 有关loss函数以及预训练模型的问题 (#54)
可以直接torch load加载,具体可以看region attention network那个repo。两个loss是一样重要性的
yangqian-qian ***@***.***> 於 2021年6月29日週二 下午10:50寫道:
>
> 作者您好,我有个问题想问下,我看论文里面两个损失函数是各自乘以0.5然后相加的,为什么这里的代码是直接相加呢,是不是说因为是同样重要,所以乘不乘0.5是一样的效果啊?然后那个预训练模型我下载不了,可不可以发我邮箱啊?非常希望您能帮我解惑。
>
> —
> You are receiving this because you are subscribed to this thread.
> Reply to this email directly, view it on GitHub
> <#54>, or
> unsubscribe
> <https://github.com/notifications/unsubscribe-auth/AI6LK4CJLZDJVSJR236QPC3TVHMSHANCNFSM47QJ5WLQ>
> .
>
—
You are receiving this because you authored the thread.
Reply to this email directly, view it on GitHub, or unsubscribe.