-
Notifications
You must be signed in to change notification settings - Fork 37
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
TensorRT推理速度不达预期 #52
Comments
请问这个1024×2048是输入图像分辨率吗? |
是的,输入是两张三通道的1024×2048的图像和一张单通道的mask |
输入图像分辨率太大了,论文里的30fps是1024×1024输入的,输出是2048×2048,应该是您这里输入大了一倍,导致速度变慢了 |
感谢,论文里的30fps是只用GPS-Gaussian网络推理时间所计算出来的帧率吗?demo里演示的新视角实时渲染帧率有多少? |
30fps包含matting和网络推理,demo演示的时候由于还包括相机视频流的读取等处理,所以GPS-Gaussian的demo展示中实际效率没有到30fps,但是这部分时间是可以优化的,可以看一下Tele-Aloha这篇我们后续提出的实时通信系统文章,四个视点输入下,仍然可以达到30fps。 |
@ShunyuanZheng 您好,感谢分享Tele-Aloha这篇工作,但读了之后有两个地方不太明白,想请教一下。
谢谢! |
您好,warp就是一个前向的dibr操作,warping之后是得到三个源视点warp后的图像(不是四个哈,tele-aloha顶上的两个视点只用了一个视点的rgb信息),fuse的操作是跟低分辨率的feature map一起做融合的,就是用网络fuse在一起的,warp+fuse的整个操作类似于这篇文章只不过网络部分的使用略有不同,做法上是类似的。第二个问题,这里是把窄基线相机得到的点云渲染成长基线相机的深度图,基于z-buffer的深度渲染都是可以的,我们使用taichi实现的。 |
谢谢回复,您提到的这篇文章里的dibr操作使用pytorch3d来得到novel view下warp之后的图像,请问你们实现的时候也使用了pytorch3d吗? |
不是,我们是用taichi自己写的kernel来实现的,速度上会快一些。 |
理解了。谢谢回复! |
感谢回复,还有个问题是live demo中从相机输出(3000x4096)到网络输入(1024x1024)经过了哪些预处理?我们的场景半径也是2米,镜头是 8mm 1:1.4,如果只进行裁剪,图像无法覆盖完整人体。 |
裁剪出完整的人体之后resize到1024,应该是裁剪2048×2048再rezize到1024×1024 |
hi,可以分享一下转onnx的代码吗? |
感谢作者分享工作,我已经将GPS-Gaussian的网络部分全部转换成TensorRT引擎,并开启了fp16优化。但在2048x1024分辨率下测试得仅推理时间就需要约60ms,不应该是实时推理应有的速度。请问是什么地方出了问题?
以下是trtexec的输出:
The text was updated successfully, but these errors were encountered: