ainrichman/Peppa-Facial-Landmark-PyTorch

关于head pose计算

xuguozhi opened this issue · 9 comments

请问是用keypoint[136]-keypoint[138]的结果做pose输出准,还是opencv solvePnP准确?

请问是用keypoint[136]-keypoint[138]的结果做pose输出准,还是opencv solvePnP准确?

不是很懂用keypoint[136]-keypoint[138]如何能输出pose?这个库里的headpose只是简单的用OpenCV的 solvePnP做的,取了68个点中比较有深度特征代表的几个点。

输出的keypoint 中除了包含关键点坐标,还有headpose 眼睛状态等这些信息。具体你可以输出试试

.... keypoint[136]-keypoint[138]不是训练的姿态角度吗?,看代码,dataloader和loss都是支持这项的,然而我试了slim_160_latest.pth,完全不work。 我也是新接触关键点回归这块,想问一下,直接回归角度这条路到底能不能走(即使效果不是sota)?

输出的keypoint 中除了包含关键点坐标,还有headpose 眼睛状态等这些信息。具体你可以输出试试

那是些信息只是辅助训练作用,其实不是很准。只是用来区分特征的。

.... keypoint[136]-keypoint[138]不是训练的姿态角度吗?,看代码,dataloader和loss都是支持这项的,然而我试了slim_160_latest.pth,完全不work。 我也是新接触关键点回归这块,想问一下,直接回归角度这条路到底能不能走(即使效果不是sota)?

那些只是辅助训练的,不能直接用来当成结果。

直接回归角度是可行的,可能是你测试的方法不对。
https://github.com/hanson-young/nniefacelib/tree/master/PFPLD
这里的作者是有个分支来做headpose,其实和你训练的**一致。

.... keypoint[136]-keypoint[138]不是训练的姿态角度吗?,看代码,dataloader和loss都是支持这项的,然而我试了slim_160_latest.pth,完全不work。 我也是新接触关键点回归这块,想问一下,直接回归角度这条路到底能不能走(即使效果不是sota)?

那些只是辅助训练的,不能直接用来当成结果。

移植到移动端测下来,精确度用来判断大概的方向是足够了。

直接回归角度是可行的,可能是你测试的方法不对。
https://github.com/hanson-young/nniefacelib/tree/master/PFPLD
这里的作者是有个分支来做headpose,其实和你训练的**一致。

我看了一下,这个库跟我这边的方法是一样的。我这边没有刻意去处理这个pose。由于像机参数是从crop的图像里拿到的,建议还是不要直接拿来用。

no more update.