chenxin-dlut/TransT

About the inference time

xiaolin13 opened this issue · 7 comments

我在RTX 2080Ti(相同设备吧)上运行的速率大概在30fps左右(确认只在运行TransT这个任务),在https://github.com/chenxin-dlut/TransT/issues/36中提到的你也是使用2080Ti上运行能够达到同等效果,想请问作者是否有做推理加速方面的工作?

在LaSOT数据集上的运行速率大概在30fps左右

可以测一下模型本身的运行速度,看看是模型的运行时间慢还是其他处理(生成搜索区域等项目)的速度慢。这份代码可能在目标比较大,搜索区域需要大量填充的时候速度会慢一些

可以测一下模型本身的运行速度,看看是模型的运行时间慢还是其他处理(生成搜索区域等项目)的速度慢。这份代码可能在目标比较大,搜索区域需要大量填充的时候速度会慢一些

作者您好,论文中提到的50fps是指模型的forward速度吗?

可以测一下模型本身的运行速度,看看是模型的运行时间慢还是其他处理(生成搜索区域等项目)的速度慢。这份代码可能在目标比较大,搜索区域需要大量填充的时候速度会慢一些

作者您好,论文中提到的50fps是指模型的forward速度吗?

#36 中你提到“A forward propagation of the model is about 20ms on my machine.”,

可以测一下模型本身的运行速度,看看是模型的运行时间慢还是其他处理(生成搜索区域等项目)的速度慢。这份代码可能在目标比较大,搜索区域需要大量填充的时候速度会慢一些

作者您好,论文中提到的50fps是指模型的forward速度吗?

不是的,47fps是测的一次跟踪的速度在一些视频序列上的平均值,是在包括了生成搜索区域等其他项目,如果只算模型forward速度大概能到53fps左右。您可以测一下lasot的这两个速度的平均速度,看看问题出在哪里,我才能给出建议:)。如果是目标大引起的搜索区域生成占用时间多,可以通过先resize再填充均值来代替先填充均值再resize来得到缓解。

可以测一下模型本身的运行速度,看看是模型的运行时间慢还是其他处理(生成搜索区域等项目)的速度慢。这份代码可能在目标比较大,搜索区域需要大量填充的时候速度会慢一些

作者您好,论文中提到的50fps是指模型的forward速度吗?

不是的,47fps是测的一次跟踪的速度在一些视频序列上的平均值,是在包括了生成搜索区域等其他项目,如果只算模型forward速度大概能到53fps左右。您可以测一下lasot的这两个速度的平均速度,看看问题出在哪里,我才能给出建议:)。如果是目标大引起的搜索区域生成占用时间多,可以通过先resize再填充均值来代替先填充均值再resize来得到缓解。

您好,我用生成的随机数据对模型进行前向推导测试,速度在26ms左右(2080ti机子)

可以测一下模型本身的运行速度,看看是模型的运行时间慢还是其他处理(生成搜索区域等项目)的速度慢。这份代码可能在目标比较大,搜索区域需要大量填充的时候速度会慢一些

作者您好,论文中提到的50fps是指模型的forward速度吗?

不是的,47fps是测的一次跟踪的速度在一些视频序列上的平均值,是在包括了生成搜索区域等其他项目,如果只算模型forward速度大概能到53fps左右。您可以测一下lasot的这两个速度的平均速度,看看问题出在哪里,我才能给出建议:)。如果是目标大引起的搜索区域生成占用时间多,可以通过先resize再填充均值来代替先填充均值再resize来得到缓解。

您好,我用生成的随机数据对模型进行前向推导测试,速度在26ms左右(2080ti机子)

我用titan rtx的forward速度大概是17~19ms,2080ti和titan的算力相似,只是显存大小不同,不会有太大区别,之前用2080ti测试也没有发现速度与rtx titan有明显差异,不过之前也有人反应过在他的电脑上运行速度会慢,也有人的速度是正常的,目前还没有发现问题是出在哪里