项目简介
本项目致力于将YOLOv4和YOLOv5模型部署到NVIDIA Jetson系列边缘设备,借助TensorRT和DeepStream实现加速推理。项目覆盖了从模型转换、环境配置到实际部署的全流程,适用于边缘设备的实时目标检测场景。
项目的主要特性和功能
YOLOv4部署
- 在Jetson Nano上部署YOLOv4模型,利用DeepStream和TensorRT加速推理。
- 支持生成和转换动态与静态ONNX模型。
- 提供详细的DeepStream配置及插件编译指南。
- 支持通过USB摄像头和CSI摄像头进行实时视频推理。
YOLOv5部署
- 在Jetson TX2上部署YOLOv5模型,使用TensorRT和DeepStream加速。
- 支持从PyTorch模型生成ONNX模型并进一步转换为TensorRT引擎。
- 提供DeepStream配置文件的详细说明与编译步骤。
- 支持实时摄像头视频推理和性能测试。
安装使用步骤
1. 环境准备
- 安装JetPack SDK(推荐JetPack 4.6)。
- 安装TensorRT(推荐TensorRT 8.0.1)。
- 安装DeepStream SDK(推荐DeepStream 6.0)。
- 安装CUDA和cuDNN。
- 安装OpenCV。
2. 模型准备
YOLOv4
- 生成ONNX模型:使用PyTorch生成YOLOv4的ONNX模型,并用
onnx - simplifier
简化。 - 安装DeepStream:在Jetson Nano上安装DeepStream SDK,配置并测试环境。
- 生成TensorRT引擎:用TensorRT将ONNX模型转换为TensorRT引擎,配置相关参数。
- 运行DeepStream:配置DeepStream应用,加载TensorRT引擎,测试摄像头实时视频推理。
YOLOv5
- 下载YOLOv5项目。
- 生成.wts文件:使用
gen_wts_yolov5.py
脚本生成。 - 移动DeepStream - Yolo文件:将文件夹移至DeepStream SDK源码目录。
- 编译文件:在DeepStream - Yolo目录下编译生成动态链接库。
- 修改配置文件:指定模型文件和标签文件。
- 运行DeepStream应用:加载配置文件进行实时视频推理。
3. 运行测试
- 使用DeepStream应用进行实时视频推理测试。
- 对比不同模型大小和剪枝后的推理速度。
完成以上步骤,即可在Jetson系列设备上成功部署YOLOv4和YOLOv5模型,并利用TensorRT和DeepStream进行加速推理。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】