Opened this issue 4 years ago · 2 comments
你好,pyramid attention 是不是特别占显存,单卡测试时能处理大尺度图像?
测试了一下输入[1,128,128,128],调用panet(level = 5),显存有8G; 是的,我把panet加入到我的模型中,显存占用太大。用48*48的patch可以训练,但是测试大图的时候,显存占用还是很大。
请问下作者这个网络可以用于目标分类吗?