Opened this issue a month ago · 2 comments
简单的使用layernorm,时间运行在3562板子上,结果误差很大。
ln1 = torch.nn.LayerNorm(256,eps=1e-5)
ln01.zip
显示的是(1,256,1,4),但是rknn_init后query得到的input attr显示的dim0=1,dim1=1,dim2=4,dim3=256,fmt=0好像对不上(dim0=1,dim1=256,dim2=1,dim3=4才对吧),
有的版本对ln的支持确实不怎么样,中间的shape这个看看就好,内部会进行转置的