Opened this issue 2 years ago · 0 comments
各位老师好,目前wav2lip官方的模型(基于LRS2)训练的,应用到其他人脸(例如亚洲人脸),嘴型驱动部分存在很强的模糊,并且嘴型很多时候是错误的。基于此,我想在自己的专人数据集上训练此wav2lip模型。我的数据为两个小时的专人视频,在训练Lip-sync Expert嘴型和音频同步网络时候,loss一直不下降,卡在0.6左右。请问老师们能给我一点建议吗 谢谢