VYXUOF opened this issue 4 years ago · 1 comments
现在想对v3tiny做量化,但不知道是否支持,我将默认的16bit改为了8bit目前来看使用目标代码可以运行,但量化生成的模型为.weight,模型大小也未发生变化,是不是哪里我操作失误?希望可以为我答疑
我也是这样,生成的模型大小没有变化,模型的推理速度也没明显的变化