cpp目录下提供了C++例程以供参考使用,具体情况如下:
序号 | C++例程 | 说明 |
---|---|---|
1 | deepsort_bmcv | 使用FFmpeg解码、BMCV前处理、BMRT推理 |
如果您在x86/arm平台安装了PCIe加速卡(如SC系列加速卡),可以直接使用它作为开发环境和运行环境。您需要安装libsophon、sophon-opencv和sophon-ffmpeg,具体步骤可参考x86-pcie平台的开发和运行环境搭建或arm-pcie平台的开发和运行环境搭建。
本C++例程依赖Eigen,您需要在编译c++程序的机器上运行如下命令安装:
sudo apt install libeigen3-dev
如果您使用SoC平台(如SE、SM系列边缘设备),刷机后在/opt/sophon/
下已经预装了相应的libsophon、sophon-opencv和sophon-ffmpeg运行库包,可直接使用它作为运行环境。通常还需要一台x86主机作为开发环境,用于交叉编译C++程序。
本C++例程依赖Eigen,您需要在编译c++程序的机器上运行如下命令安装:
sudo apt install libeigen3-dev
C++程序运行前需要编译可执行文件。
可以直接在PCIe平台上编译程序:
cd cpp/deepsort_bmcv
mkdir build && cd build
cmake ..
make
cd ..
编译完成后,会在deepsort_bmcv目录下生成deepsort_bmcv.pcie。
通常在x86主机上交叉编译程序,您需要在x86主机上使用SOPHON SDK搭建交叉编译环境,将程序所依赖的头文件和库文件打包至soc-sdk目录中,具体请参考交叉编译环境搭建。本例程主要依赖libsophon、sophon-opencv和sophon-ffmpeg运行库包。
交叉编译环境搭建好后,使用交叉编译工具链编译生成可执行文件:
cd cpp/deepsort_bmcv
mkdir build && cd build
#请根据实际情况修改-DSDK的路径,需使用绝对路径。
cmake -DTARGET_ARCH=soc -DSDK=/path_to_sdk/soc-sdk ..
make
编译完成后,会在deepsort_bmcv目录下生成deepsort_bmcv.soc。
对于PCIe平台,可以直接在PCIe平台上推理测试;对于SoC平台,需将交叉编译生成的可执行文件及所需的模型、测试数据拷贝到SoC平台中测试。测试的参数及运行方式是一致的,下面主要以PCIe模式进行介绍。
可执行程序默认有一套参数,请注意根据实际情况进行传参,具体参数说明如下:
Usage: deepsort_bmcv.pcie [params]
--bmodel_detector (value:../../models/BM1684X/yolov5s_v6.1_3output_int8_1b.bmodel)
detector bmodel file path
--bmodel_extractor (value:../../models/BM1684X/extractor_fp16_1b.bmodel)
extractor bmodel file path
--classnames (value:./coco.names)
class names file path
--config (value:./deep_sort.yaml)
config params
--dev_id (value:0)
TPU device id
--help (value:true)
print help information.
--input (value:../../datasets/test_car_person_1080P.mp4)
input path, video file path or image folder
注意:
-
CPP传参与python不同,需要用等于号,例如
./deepsort_bmcv.pcie --bmodel_detector=xxx
。 -
目标检测模型和卡尔曼滤波的自定义参数,相关参数可以在
deep_sort.yaml
中修改。
MOT数据集测试实例如下,支持对整个文件夹里的所有图片进行测试。
./deepsort_bmcv.pcie --input=../../datasets/mot15_trainset/ADL-Rundle-6/img1 --bmodel_detector=../../models/BM1684X/yolov5s_v6.1_3output_int8_1b.bmodel --bmodel_extractor=../../models/BM1684X/extractor_fp32_1b.bmodel --dev_id=0
测试结束后,会将预测的帧保存在results/images
下,预测的结果保存在results/mot_eval/ADL-Rundle-6_extractor_fp32_1b.bmodel.txt
下,同时会打印推理耗时等信息。
############################
SUMMARY: DeepSORT test
############################
[ decode time] loops: 100 avg: 10511 us #平均每帧的解码耗时
[ yolov5 time] loops: 100 avg: 27008 us #目标检测模型平均每个batch的耗时
[ yolov5 preprocess] loops: 100 avg: 1496 us #目标检测模型平均每个batch的预处理耗时
[ yolov5 inference] loops: 100 avg: 3277 us #目标检测模型平均每个batch的推理耗时
[ yolov5 postprocess] loops: 100 avg: 22226 us #目标检测模型平均每个batch的后处理耗时
[post 1: get output and decode] loops: 100 avg: 15932 us
[post 2: filter boxes] loops: 100 avg: 5804 us
[ post 3: nms] loops: 100 avg: 32 us
[ deepsort time] loops: 100 avg: 22753 us #deepsort单帧流程的耗时
[ extractor time] loops: 100 avg: 20856 us #单帧调用特征提取器的总耗时
[extractor preprocess] loops: 100 avg: 227 us #特征提取模型平均每个crop batch的预处理耗时
[ extractor inference] loops: 100 avg: 2126 us #特征提取模型平均每个crop batch的推理耗时
[deepsort postprocess] loops: 100 avg: 3208 us #deepsort平均每帧的的后处理耗时
[ encode time] loops: 100 avg: 30637 us #平均每帧画框和编码的时间
avg_crops_per_batch: 8.579047 #平均每帧的目标数
#VideoDecFFM exit
FeatureExtractor dtor ...
YoloV5 dtor ...
视频测试实例如下,支持对视频流进行测试。
./deepsort_bmcv.pcie --input=../../datasets/test_car_person_1080P.mp4 --bmodel_detector=../../models/BM1684X/yolov5s_v6.1_3output_int8_1b.bmodel --bmodel_extractor=../../models/BM1684X/extractor_fp32_1b.bmodel --dev_id=0
测试结束后,会将预测结果画在图片上并保存在results/video
中,预测的结果保存在results/mot_eval/test_car_person_1080P.mp4_extractor_fp32_1b.bmodel.txt
下,同时会打印推理耗时等信息。
############################
SUMMARY: DeepSORT test
############################
[ decode time] loops: 100 avg: 1 us #平均每帧的解码耗时
[ yolov5 time] loops: 100 avg: 27222 us #目标检测模型平均每个batch的耗时
[ yolov5 preprocess] loops: 100 avg: 1576 us #目标检测模型平均每个batch的预处理耗时
[ yolov5 inference] loops: 100 avg: 3420 us #目标检测模型平均每个batch的推理耗时
[ yolov5 postprocess] loops: 100 avg: 22217 us #目标检测模型平均每个batch的后处理耗时
[post 1: get output and decode] loops: 100 avg: 15932 us
[post 2: filter boxes] loops: 100 avg: 5804 us
[ post 3: nms] loops: 100 avg: 32 us
[ deepsort time] loops: 100 avg: 21292 us #deepsort单帧流程的耗时
[ extractor time] loops: 100 avg: 19595 us #单帧调用特征提取器的总耗时
[extractor preprocess] loops: 100 avg: 215 us #特征提取模型平均每个crop batch的预处理耗时
[ extractor inference] loops: 100 avg: 2168 us #特征提取模型平均每个crop batch的推理耗时
[deepsort postprocess] loops: 100 avg: 3208 us #deepsort平均每帧的的后处理耗时
[ encode time] loops: 100 avg: 30394 us #平均每帧画框和编码的时间
avg_crops_per_batch: 7.209814 #平均每帧的目标数
#VideoDecFFM exit
FeatureExtractor dtor ...
YoloV5 dtor ...