littlebot
Published on 2025-04-03 / 1 Visits
0

【源码】基于TensorRT和DeepStream的YOLOv4与YOLOv5部署

项目简介

本项目致力于将YOLOv4和YOLOv5模型部署到NVIDIA Jetson系列边缘设备,借助TensorRT和DeepStream实现加速推理。项目覆盖了从模型转换、环境配置到实际部署的全流程,适用于边缘设备的实时目标检测场景。

项目的主要特性和功能

YOLOv4部署

  • 在Jetson Nano上部署YOLOv4模型,利用DeepStream和TensorRT加速推理。
  • 支持生成和转换动态与静态ONNX模型。
  • 提供详细的DeepStream配置及插件编译指南。
  • 支持通过USB摄像头和CSI摄像头进行实时视频推理。

YOLOv5部署

  • 在Jetson TX2上部署YOLOv5模型,使用TensorRT和DeepStream加速。
  • 支持从PyTorch模型生成ONNX模型并进一步转换为TensorRT引擎。
  • 提供DeepStream配置文件的详细说明与编译步骤。
  • 支持实时摄像头视频推理和性能测试。

安装使用步骤

1. 环境准备

  • 安装JetPack SDK(推荐JetPack 4.6)。
  • 安装TensorRT(推荐TensorRT 8.0.1)。
  • 安装DeepStream SDK(推荐DeepStream 6.0)。
  • 安装CUDA和cuDNN。
  • 安装OpenCV。

2. 模型准备

YOLOv4

  1. 生成ONNX模型:使用PyTorch生成YOLOv4的ONNX模型,并用onnx - simplifier简化。
  2. 安装DeepStream:在Jetson Nano上安装DeepStream SDK,配置并测试环境。
  3. 生成TensorRT引擎:用TensorRT将ONNX模型转换为TensorRT引擎,配置相关参数。
  4. 运行DeepStream:配置DeepStream应用,加载TensorRT引擎,测试摄像头实时视频推理。

YOLOv5

  1. 下载YOLOv5项目。
  2. 生成.wts文件:使用gen_wts_yolov5.py脚本生成。
  3. 移动DeepStream - Yolo文件:将文件夹移至DeepStream SDK源码目录。
  4. 编译文件:在DeepStream - Yolo目录下编译生成动态链接库。
  5. 修改配置文件:指定模型文件和标签文件。
  6. 运行DeepStream应用:加载配置文件进行实时视频推理。

3. 运行测试

  • 使用DeepStream应用进行实时视频推理测试。
  • 对比不同模型大小和剪枝后的推理速度。

完成以上步骤,即可在Jetson系列设备上成功部署YOLOv4和YOLOv5模型,并利用TensorRT和DeepStream进行加速推理。

下载地址

点击下载 【提取码: 4003】【解压密码: www.makuang.net】