对比实验里面的指标和原论文指标不一致
wcnm231 opened this issue · 10 comments
你好我在看对比实验的时候发现有些对比模型的精度和原论文不一致比如CoSeRec,CL4Rec,这样的对比是否合理呢,您是把要比较的那些论文代码按照原始论文参数设计在自己环境下重新跑了一遍然后按照这个结果来对比的吗
感谢你的回复,但是我发现模型IOCRec的实验指标似乎与原文差距比较大,这里是什么原因呢
感谢您的回复。您的意思是说一般测试时使用的是一个正样本+99个负样本这种方法存在偏差,因此测试时使用的是用户所有未交互过项目充当测试集,但是我发现很多模型都是说倒数第一个项目用来测试,所以在测试的时候是一个正样本+用户所有未交互的项目当做测试吗,您的对比实验的模型中都是采用这种方法吗,还是说只有IOCRec模型采用了这种方法
非常感谢您耐心回复,您的意思是说最近的一些方法(CoSeRec, DuoRec, ICLRec等在公开代码中采用的都是全量预测,而不是在您自己的实验中对这些模型进行全量预测改动吗
好的,非常感谢,请问可以分享一下在对比实验中使用的一些未公开的代码吗,比如CL4Rec模型,以及在IOCRec模型中使用全量预测改动后模型代码,邮件2739009686@qq.com,最后,再次感谢您的耐心回复,使我学到了很多东西
你好,大部分baseline模型都可以在这里找到,https://github.com/QinHsiu/MCLRec/blob/main/baseline.md,
对于IOCRec,作者有提供全量预测的参数设置,在第46行, parser.add_argument('--eval_mode', default='full', help='[uni100, pop100, full]'),选择full就行。
感谢你的回复,我在看代码的时候遇到了一个问题,在计算各个指标精度的时候,得出的预测列表pred_list应该是得分排名前n的项目对应的索引,索引时从0开始的 ,而项目的id是从1开始的,answer对应的也是项目id,预测列表中对应的是项目索引,这样计算是不是有问题呢,还是说我理解的有错误,我思索了很久没有想明白