跟我们一起
玩转路由器

[C++]使用C++部署yolov11目标检测的tensorrt模型支持图片视频推理windows测试通过

https://www.php.cn/link/e3752bd232f5ce0a575ae0a35c06c79c

近期,YOLOv8官方发布了全新的YOLOv11框架,为当前目标检测领域再添一员得力助手。本文记录了在Windows系统下成功部署YOLOv11的TensorRT模型全过程。

重要提示:环境配置属于基础操作,本文不详细展开安装流程,相关步骤可通过搜索引擎查找对应资源完成。

测试通过环境配置:

  • 操作系统:Windows 10(RTX2070,8GB显存)
  • 开发工具:Visual Studio 2019
  • CMake:3.24.3
  • CUDA:11.7.1 + cuDNN:8.8.0
  • TensorRT:8.6.1.6
  • OpenCV:4.8.0
  • Python环境:Anaconda3 + Python 3.8
  • PyTorch:1.9.0 + cu111
  • Ultralytics:8.3.3

部署流程说明:

部署中最耗时的部分是环境搭建。首先确认系统为Windows 10或11,并配备NVIDIA独立显卡。可通过任务管理器查看(Win10使用

,Win11使用 ),进入“性能”标签页查看GPU信息。

785b7ad428034221a4ff1a167855b167.png

立即学习“C++免费学习笔记(深入)”;

若显示GPU0、GPU1等设备,且标注为“NVIDIA”,则说明具备可用的独立显卡。若为AMD或集成显卡,则不支持CUDA及TensorRT加速。

接下来需安装以下软件(建议版本一致以快速复现):

  • VS2019 或 VS2022
  • CMake 3.24.3
  • CUDA 11.7.1 + cuDNN 8.8.0
  • TensorRT 8.6.1.6
  • OpenCV 4.8.0
  • Anaconda3 + Python 3.8
  • PyTorch 1.9.0 + cu111
  • Ultralytics 8.3.3

确保上述环境均已正确安装后,开始正式部署。


模型准备与ONNX转换:

前往YOLOv8官方仓库下载YOLOv11模型权重:

? yolo11n.pt 下载地址

将下载的

放入项目目录,在已配置好的YOLO环境(如conda环境)中运行以下命令导出ONNX模型:

或直接运行项目中的

脚本:

成功后将生成

文件。


C++项目编译:

修改项目根目录下的

,设置OpenCV和TensorRT的安装路径:

随后创建构建目录并生成项目:

601145cbd0fb446290fb27b11fbc2117.png

进入

目录,用Visual Studio打开生成的 文件。

70e777a66b54441ca8f17ffb2d9ab09b.png

选择 x64 Release 模式,右键点击

项目,选择“生成”。

40ae80d428e44f089f115723678e3122.png

编译成功后,可在

目录下找到生成的 可执行文件。


ONNX转TensorRT引擎:

使用TensorRT自带的

工具将ONNX模型转换为TensorRT引擎:

等待约20分钟,生成

文件。将其复制到 文件夹中。

039d294b13854248a4a636bfcffeba0e.png


推理测试:

图片检测:

视频检测:


注意事项:

  • TensorRT引擎与硬件强相关,不可跨设备通用,需在目标机器上重新生成。
  • 如需进行二次开发,建议深入阅读 源码,需具备一定的C++编程基础。
  • 完整源码可从以下链接获取:

? CSDN资源下载链接

赞(0)
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《[C++]使用C++部署yolov11目标检测的tensorrt模型支持图片视频推理windows测试通过》
文章链接:https://www.lu-you.com/settings/28462.html
本站资源来源于互联网整理,若有图片影像侵权,联系邮箱429682998@qq.com删除,谢谢。

评论 抢沙发

登录

找回密码

注册