Skip to content

Latest commit

 

History

History
151 lines (130 loc) · 7.19 KB

README.md

File metadata and controls

151 lines (130 loc) · 7.19 KB

C++例程

目录

cpp目录下提供了C++例程以供参考使用,具体情况如下:

序号 C++例程 说明
1 bytetrack_opencv 使用FFmpeg解码、BMCV前处理、BMRT推理、kalmanfilter使用opencv,无需额外安装eigen3
2 bytetrack_eigen 使用FFmpeg解码、BMCV前处理、BMRT推理、kalmanfilter使用eigen

1. 环境准备

1.1 x86/arm PCIe平台

如果您在x86/arm平台安装了PCIe加速卡(如SC系列加速卡),可以直接使用它作为开发环境和运行环境。您需要安装libsophon、sophon-opencv和sophon-ffmpeg,具体步骤可参考x86-pcie平台的开发和运行环境搭建arm-pcie平台的开发和运行环境搭建

bytetrack_eigen例程依赖Eigen3,您需要在编译C++程序的机器上运行如下命令安装:

sudo apt install libeigen3-dev

1.2 SoC平台

如果您使用SoC平台(如SE、SM系列边缘设备),刷机后在/opt/sophon/下已经预装了相应的libsophon、sophon-opencv和sophon-ffmpeg运行库包,可直接使用它作为运行环境。通常还需要一台x86主机作为开发环境,用于交叉编译C++程序。

bytetrack_eigen例程依赖Eigen3,您需要在编译C++程序的机器上运行如下命令安装:

sudo apt install libeigen3-dev

2. 程序编译

C++程序运行前需要编译可执行文件。

2.1 x86/arm PCIe平台

可以直接在PCIe平台上编译程序:

2.1.1 opencv

cd cpp/bytetrack_opencv
mkdir build && cd build
cmake ..
make
cd ..

编译完成后,会在bytetrack_opencv目录下生成bytetrack_opencv.pcie。

2.1.2 eigen

cd cpp/bytetrack_eigen
mkdir build && cd build
cmake ..
make
cd ..

编译完成后,会在bytetrack_eigen目录下生成bytetrack_eigen.pcie。

2.2 SoC平台

通常在x86主机上交叉编译程序,您需要在x86主机上使用SOPHON SDK搭建交叉编译环境,将程序所依赖的头文件和库文件打包至soc-sdk目录中,具体请参考交叉编译环境搭建。本例程主要依赖libsophon、sophon-opencv和sophon-ffmpeg运行库包。

交叉编译环境搭建好后,使用交叉编译工具链编译生成可执行文件:

2.2.1 opencv

cd cpp/bytetrack_opencv
mkdir build && cd build
#请根据实际情况修改-DSDK的路径,需使用绝对路径。
cmake -DTARGET_ARCH=soc -DSDK=/path_to_sdk/soc-sdk ..
make

编译完成后,会在bytetrack_opencv目录下生成bytetrack_opencv.soc。

2.2.1 eigen

cd cpp/bytetrack_eigen
mkdir build && cd build
#请根据实际情况修改-DSDK的路径,需使用绝对路径。
cmake -DTARGET_ARCH=soc -DSDK=/path_to_sdk/soc-sdk ..
make

编译完成后,会在bytetrack_eigen目录下生成bytetrack_eigen.soc。

3. 推理测试

对于PCIe平台,可以直接在PCIe平台上推理测试;对于SoC平台,需将交叉编译生成的可执行文件及所需的模型、测试数据拷贝到SoC平台中测试。测试的参数及运行方式是一致的,下面主要以PCIe模式进行介绍。

3.1 参数说明

可执行程序默认有一套参数,请注意根据实际情况进行传参,bytetrack_opencv.pcie与bytetrack_eigen.pcie参数相同。bytetrack_opencv.pcie为例,以具体参数说明如下:

Usage: bytetrack_opencv.pcie [params]

        --bmodel_detector (value:../../models/BM1684X/yolov5s_v6.1_3output_int8_4b.bmodel)
                detector bmodel file path
        --classnames (value:./coco.names)
                class names file path
        --config (value:./bytetrack.yaml)
                config params
        --dev_id (value:0)
                TPU device id
        --help (value:true)
                print help information.
        --input (value:../../datasets/test_car_person_1080P.mp4)
                input path, video file path or image folder

注意:

  1. CPP传参与python不同,需要用等于号,例如./bytetrack_opencv.pcie --bmodel_detector=xxx
  1. 目标检测模型和卡尔曼滤波的自定义参数,相关参数可以在bytetrack.yaml中修改。

3.2 测试MOT数据集

MOT数据集测试实例如下,支持对整个文件夹里的所有图片进行测试。

./bytetrack_opencv.pcie --input=../../datasets/mot15_trainset/ADL-Rundle-6/img1 --bmodel_detector=../../models/BM1684X/yolov5s_v6.1_3output_int8_4b.bmodel --dev_id=0

测试结束后,会将预测的帧保存在results/images下,预测的结果保存在results/mot_eval/ADL-Rundle-6_yolov5s_v6.1_3output_int8_1b.bmodel.txt下,同时会打印推理耗时等信息。

############################
SUMMARY: ByteTrack test
############################
[                  decode time]  loops:  593 avg: 0.031000 ms  #平均每帧的解码耗时            
[                  yolov5 time]  loops:  148 avg: 80.840000 ms #目标检测模型平均每个batch的耗时   
[            yolov5 preprocess]  loops:  148 avg: 6.382000 ms  #目标检测模型平均每个batch的预处理耗时
[             yolov5 inference]  loops:  148 avg: 13.519000 ms #目标检测模型平均每个batch的推理耗时 
[           yolov5 postprocess]  loops:  148 avg: 60.927000 ms #目标检测模型平均每个batch的后处理耗时
[post 1: get output and decode]  loops:  592 avg: 15.159000 ms
[         post 2: filter boxes]  loops:  592 avg: 0.028000 ms
[                  post 3: nms]  loops:  592 avg: 0.027000 ms
[               bytetrack time]  loops:  592 avg: 0.229000 ms  #bytetrack平均每帧更新tracker耗时
[                  encode time]  loops:  592 avg: 31.154000 ms #平均每帧编码耗时
#VideoDecFFM exit 
YoloV5 dtor ...

3.3 测试视频

视频测试实例如下,支持对视频流进行测试。

./bytetrack_opencv.pcie --input=../../datasets/test_car_person_1080P.mp4 --bmodel_detector=../../models/BM1684X/yolov5s_v6.1_3output_int8_4b.bmodel --dev_id=0

测试结束后,会将预测结果画在图片上并保存在results/video中,预测的结果保存在results/mot_eval/test_car_person_1080P.mp4_yolov5s_v6.1_3output_int8_1b.bmodel.txt下,同时会打印推理耗时等信息,打印的信息条目可以参考3.2中的解释。