SHI-Labs/Pyramid-Attention-Networks

内存不足问题

Opened this issue · 2 comments

你好,pyramid attention 是不是特别占显存,单卡测试时能处理大尺度图像?

测试了一下输入[1,128,128,128],调用panet(level = 5),显存有8G;
是的,我把panet加入到我的模型中,显存占用太大。用48*48的patch可以训练,但是测试大图的时候,显存占用还是很大。

请问下作者这个网络可以用于目标分类吗?