量化后模型参数文件大小并没有变化
StrugglingForBetter opened this issue · 1 comments
StrugglingForBetter commented
通过修改models.py中的W_bit和A_bit, 设置为8, 但是用下面的指令训练后,得到的模型参数文件大小并没有发生变化
python3 train.py --data data/oxfordhand.data --batch-size 32 --accumulate 1 --weights weights/yolov3.weights --cfg cfg/yolov3-quantize-hand.cfg
按道理量化后模型会变小,请问如何将flot32的模型转换成int8 的模型?