thunlp/OpenNE

TADW中的w和h优化方法?牛顿或者拟牛顿?

liujinxin1 opened this issue · 11 comments

您好,我是一名正在研读网络表示学习的学生,读到了tadw方法的文章,用您在该网站发布代码进行了复现,在读到w和h的迭代优化过程中,因代码知识薄弱遇到了些问题,看到了Hess定义变量感觉像是用了牛顿法或者拟牛顿法,希望能在百忙之中解答疑惑,谢谢

Hello,老哥看明白这儿了吗,能否给我讲讲,我也是一头雾水啊

老弟啊,我自己没看懂去和66楼童鞋问了和你同样的问题,他的回答:用了共轭梯度下降,搜一下,就是标准的Fletcher-Reeves

原来是这样,谢啦

`~)} }{9L0(4(7EH(TJ(JLB

87行这个对H的偏导你求了吗,我算出来多了个系数2

没有欸,我前天才刚开始看NE,我后面有时间了看看

好吧

cgq15 commented

您好,TADW所用的优化方法是共轭梯度下降。正如 @RobsonHu 所说,我们的代码中求导少了系数2,现在已经在新版修复,感谢您的指出!