/yolov5_tensorrt_int8

yolov5 tensorrt int8量化方法汇总

Primary LanguagePython

说明

yolov5官方模型应用时要做适量修改,原因如下

  1. 本仓中的yolov5导出的onnx为动态batch;
  2. 本仓中的yolov5.onnx模型将NMS后处理添加到模型中,以方便在转换为tensorrt时,加速推理速度,添加方式如下:
class End2End(nn.Module):
    '''export onnx or tensorrt model with NMS operation.'''
    def __init__(self, model, max_obj=100, iou_thres=0.45, score_thres=0.25, device=None, ort=False,  trt_version=8, with_preprocess=False):
        super().__init__()
        device = device if device else torch.device('cpu')
        self.with_preprocess = with_preprocess
        self.model = model.to(device)
        TRT = ONNX_TRT8
        self.patch_model = TRT
        self.nms = self.patch_model(max_obj, iou_thres, score_thres, device)
        self.nms.eval()

    # def forward(self, x, cord):
    def forward(self, x):
        x = self.model(x)[0]
        num_det_whole, det_boxes_whole, det_scores_whole, det_classes_whole = self.nms(x)
        det_result = torch.cat((det_boxes_whole, det_scores_whole.unsqueeze(2), det_classes_whole.float().unsqueeze(2)), dim=2)

        return num_det_whole, det_result

class ONNX_TRT8(nn.Module):
    '''onnx module with TensorRT NMS operation.'''
    def __init__(self, max_obj=100, iou_thres=0.45, score_thres=0.25, device=None):
        super().__init__()
        self.device = device if device else torch.device('cpu')
        self.background_class = -1,
        self.box_coding = 1,
        self.iou_threshold = iou_thres
        self.max_obj = max_obj
        self.plugin_version = '1'
        self.score_activation = 0
        self.score_threshold = score_thres

    def forward(self, x):
        box = x[:, :, :4]
        conf = x[:, :, 4:5]
        score = x[:, :, 5:]
        score *= conf
        num_det, det_boxes, det_scores, det_classes = TRT8_NMS.apply(box, score, self.background_class, self.box_coding,
                                                                    self.iou_threshold, self.max_obj,
                                                                    self.plugin_version, self.score_activation,
                                                                    self.score_threshold)
        return num_det, det_boxes, det_scores, det_classes
class TRT8_NMS(torch.autograd.Function):
    '''TensorRT NMS operation'''
    @staticmethod
    def forward(
        ctx,
        boxes,
        scores,
        background_class=-1,
        box_coding=1,
        iou_threshold=0.45,
        max_output_boxes=100,
        plugin_version="1",
        score_activation=0,
        score_threshold=0.25,
    ):
        batch_size, num_boxes, num_classes = scores.shape
        num_det = torch.randint(0, max_output_boxes, (batch_size, 1), dtype=torch.int32)
        det_boxes = torch.randn(batch_size, max_output_boxes, 4)
        det_scores = torch.randn(batch_size, max_output_boxes)
        det_classes = torch.randint(0, num_classes, (batch_size, max_output_boxes), dtype=torch.int32)
        return num_det, det_boxes, det_scores, det_classes

    @staticmethod
    def symbolic(g,
                 boxes,
                 scores,
                 background_class=-1,
                 box_coding=1,
                 iou_threshold=0.45,
                 max_output_boxes=100,
                 plugin_version="1",
                 score_activation=0,
                 score_threshold=0.25):
        out = g.op("TRT::EfficientNMS_TRT",
                   boxes,
                   scores,
                   background_class_i=background_class,
                   box_coding_i=box_coding,
                   iou_threshold_f=iou_threshold,
                   max_output_boxes_i=max_output_boxes,
                   plugin_version_s=plugin_version,
                   score_activation_i=score_activation,
                   score_threshold_f=score_threshold,
                   outputs=4)
        nums, boxes, scores, classes = out
        return nums, boxes, scores, classes

介绍

  • 基于tensorrt官方文档,基于yolov5_v7.0结合自身训练模型对yolov5进行int8量化;
  • 关于tensorrt int8量化的详细文档请参考本人CSDN知乎相关文章;

准备工作

  • 下载yolov5官方代码,本人实验是基于yolov5_v7.0版本进行的;
  • 按照官方教程准备数据集,对yolov5模型进行训练,获得要部署的模型best.pt或者last.pt,后文默认采用best.pt;
  • 将best.pt导出为onnx;
  • 将本仓的代码放置于yolov5内,与train.py同级;

QuickStart

方式1:PTQ(训练后量化)

PTQ共有3种实现方式,示例如下:

方式1.1 engine序列化前进行int8量化

python onnx2trt_ptq.py

参数说明:

  • onnx_file_path:准备工作中导出的yolov5 onnx模型;
  • engine_file_path:待保存的int8量化的序列化tensorrt模型路径;
  • cali_img_path:校正数据集路径,本人实验时校正数据集采用了2000张训练数据集子集;

注意事项:

  • 实验的是输入为动态batch的情况,故添加下述代码,请根据模型情况自行调整输入
 profile = builder.create_optimization_profile()
 profile.set_shape(network.get_input(0).name, min=(1, 3, 384, 1280), opt=(12, 3, 384, 1280), max=(26, 3, 384, 1280))
 config.add_optimization_profile(profile)
  • 校正数据集的处理请根据自身模型输入自行调整;
  • 校正数据集的shape[B, C,H,W]需与推理时模型输入shape[B,C,H,W]完全一致,方能得到较好的量化结果,即该量化方式不适用于动态shape;

方式1.2 polygraphy工具:应该是对1.1量化过程的封装

  • 安装polygraphy

    pip install colored polygraphy --extra-index-url https://pypi.ngc.nvidia.com
  • 量化

polygraphy convert XX.onnx --int8 --fp16 --data-loader-script loader_data.py --calibration-cache XX.cache -o XX.trt --trt-min-shapes images:[1,3,384,1280] --trt-opt-shapes images:[26,3,384,1280] --trt-max-shapes images:[26,3,384,1280] #量化

参数说明:

  • XX.onnx:准备工作中导出的yolov5 onnx模型;
  • XX.trt: 待保存的int8量化的序列化tensorrt模型路径;
  • XX.cache: 保存的校正cache;
  • loader_data.py: 量化时,会读取loader_data.py中的load_data函数;

注意事项:

  • loader_data.py中只是示例代码,请将此代码换做加载校正数据集,并按照模型需求处理校正数据集;
  • 校正数据集的shape要与上述命令中的--trt-opt-shapes一致,否则报错;
  • 校正数据集的shape[B, C,H,W]需与推理时模型输入shape[B,C,H,W]完全一致,方能得到较好的量化结果,即该量化方式不适用于动态shape;

方式1.3 pytorch中执行(推荐)

python pytorch_yolov5_ptq.py

参数说明:

  • pt_file:准备工作中训练好的pytorch模型;
  • calib_path:校正数据集路径;
  • num: 校正数据集中采用num个数据进行校正;
  • batchsize: 校正数据集输入的batchsize,此种方式中,校正数据集的batchsize无需与推理时保持一致,也可得到较好的量化结果
  • 按照自己模型的数据处理方式写CaliData类;
  • 此模型导出int8量化后的onnx模型;
  • 利用trtexec将onnx模型转为对应的tensorrt模型,命令中记得加入 --int8 --fp16;

方式2 QAT(训练感知量化)

训练

python pytorch_yolov5_qat.py -m best.pt ...#best.pt为准备工作训练好的模型,...为其他命令参考train.py训练,数据采用训练数据集

注意事项:

  • 训练时图像尺寸必须与推理时保持一致,方能得到较好的量化结果;
  • 初始学习率lr0设为0.0001

pytorch导出为onnx

python export_onnx_qat.py

参数说明:

  • pt_file:为上述QAT训练的模型

注意事项:

  • 实验中,导出onnx时,输入必须真实的图像数据才能导出正常输出的onnx模型