当前位置: 首页 > article >正文

视频结构化框架VideoPipe-OpenCV::DNN-TensorRT安装教程【Nvidia各系列显卡-亲测有效】

文章目录

      • 前言
      • 安装Ubuntu18.04
      • 安装Nvidia-smi显卡驱动
      • 安装cuda-11.1
        • cuda-11.8环境变量
      • 安装cudnn
        • cudnn环境变量
      • 安装Freetype
      • 安装OpenCV-4.6.0
      • 安装TensorRT-8.5
      • 安装gstreamer
      • 安装VideoPipe
        • 编译cuda+tensorrt版本
        • tensorRT engine plan error
        • 视频编解码报错

前言

对于深度学习模型边端部署,使用TensorRT能大大提升推理性能,减少资源开销,VideoPipe也提供了针对TensorRT-8.5(要求cuda-11.1)的环境测试。

本文环境已在搭载4070Ti-Super的设备上经过验证,系统版本为 Ubuntu-18.04, gcc/g++ --version为7.5.0,亲测安装成功。

此外,在另一台搭载1660-Ubuntu18.04的设备上也经过验证,只要打上支持相应型号显卡的驱动,并安装cuda11.1(由于使用的是TensorRT8.5,强烈建议安装cuda11.1,cuda11.7、11.8安装测试时,发现存在NVIDIA-Driver不匹配、OpenCV编译不通过等报错),同样可以完美运行。

安装Ubuntu18.04

建议使用Ubuntu18.04(双系统或多系统,不能使用VMWare或WSL虚拟机)进行安装,如果有20.04也可以尝试使用20.04,但22.04不行,因为cuda11.1不支持22.04.

安装Nvidia-smi显卡驱动

1、卸载已存在的显卡驱动、cuda等环境,防止出现版本冲突编译混乱

sudo apt-get --purge remove '*cublas*' 'cuda*' 'nsight*' 'nvidia*'
sudo apt-get autoremove
sudo apt remove --purge nvidia-*      // 防止卸不干净
sudo apt remove --purge libnvidia-*

2、安装Nvidia-smi显卡驱动
对于40系显卡,推荐一个稳定便捷的驱动版本:NVIDIA-Linux-x86_64-550.142.run
百度/Google上搜索NVIDIA-Linux-x86_64-550.142.run下载完毕后,直接终端输入sudo bash NVIDIA-Linux-x86_64-550.142.run即可进入安装(除了32位的不选yes,其他的一路continue, yes就可以了),此版本还不需要关闭Lightdm,所以用向日葵远程也可以安装。

安装完毕后 sudo reboot 重启,分辨率是高清的,且nvidia-smi有返回说明就是驱动装好了。

此外,还有`NVIDIA-Linux-x86_64-560.28.23测试过,也可以支持cuda11.1,个别版本的NVIDIA-Driver可能由于具体环境原因安装时会出现冲突,这里建议对于30系以下的显卡安装NVIDIA-Driver-455.23,对30系及以上的显卡安装NVIDIA-Driver-550/560,避免出现cuda11.1与Driver不匹配的报错。
在这里插入图片描述

安装cuda-11.1

wget https://developer.download.nvidia.com/compute/cuda/11.1.0/local_installers/cuda_11.1.0_455.23.05_linux.run
sudo bash cuda_11.1.0_455.23.05_linux.run
cuda-11.8环境变量
sudo gedit ~/.bashrc
echo 'export PATH=/usr/local/cuda-11.8/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-11.8/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

安装cudnn

Nvidia官网下载 cudnn-8.0.5的.tar文件,注意不要下成12.X的版本

切换到存放目录,终端输入tar -xvf cudnn-11.1-linux-x64-v8.0.5.39.tgz进行解压

cd cuda
sudo cp include/cudnn*.h    /usr/local/cuda/include
sudo cp lib/libcudnn*  /usr/local/cuda/lib64
// 这个命令会等待时间长一点
sudo chmod a+r /usr/local/cuda/include/cudnn.h   /usr/local/cuda/lib64/libcudnn*

cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
// 有返回就是安装成功
cudnn环境变量
sudo gedit ~/.bashrc
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
export CUDA_HOME=/usr/local/cuda
source ~/.bashrc

安装Freetype

sudo apt-get install libfreetype6-dev

ubuntu18.04中可能要安装依赖:sudo apt-get install libfreetype6=2.8.1-2ubuntu2

# 检查 FreeType 头文件
ls /usr/include/freetype2

# 检查 FreeType 库
ls /usr/lib/x86_64-linux-gnu/libfreetype.so

安装OpenCV-4.6.0

github官网上下载opencv-4.6.0、opencv_contrib、opencv_extra,并sudo cp -r 到/home路径下,创建一个build_bash.sh,使用下列命令进行编译安装:sudo bash build_bash.sh

VERSION=4.6.0

cd opencv
rm -rf ./build
mkdir build
cd build

cmake -D CMAKE_BUILD_TYPE=RELEASE \
-D CMAKE_INSTALL_PREFIX=/usr/local \
-D CUDA_TOOLKIT_ROOT_DIR=/usr/local/cuda \
-D CUDNN_INCLUDE_DIR=/usr/local/cuda/include \
-D WITH_TBB=ON \
-D ENABLE_FAST_MATH=1 \
-D CUDA_FAST_MATH=1 \
-D WITH_CUBLAS=1 \
-D WITH_CUDA=ON \
-D BUILD_opencv_cudacodec=OFF \
-D WITH_CUDNN=ON \
-D OPENCV_DNN_CUDA=ON \
-D CUDA_ARCH_BIN=7.5 \
-D WITH_V4L=ON \
-D WITH_QT=OFF \
-D WITH_OPENGL=ON \
-D WITH_GSTREAMER=ON \
-D WITH_FREETYPE=ON \
-D OPENCV_GENERATE_PKGCONFIG=ON \
-D OPENCV_PC_FILE_NAME=opencv.pc \
-D OPENCV_ENABLE_NONFREE=ON \
-D OPENCV_EXTRA_MODULES_PATH=../../opencv_contrib/modules \
-D INSTALL_PYTHON_EXAMPLES=OFF \
-D INSTALL_C_EXAMPLES=OFF \
-D OPENCV_DOWNLOAD_MIRROR_ID=gitcode \
..

make -j 12
sudo make -j 12 install

注意CUDA_ARCH_BIN=7.5 无需更改8.6或8.9等新的算力编号,因为cuda11.1也不支持那么高。

安装TensorRT-8.5

VideoPipe的ReadME中其实也介绍了相关的教程,和NVIDIA官网的安装教程一致:
在这里插入图片描述主要是下载TensorRT-8.5,7.2.1.6不建议尝试,没有编译成功,
其余的按照上述步骤unzip TensorRT-8.5.1.7.Linux.x86_64-gnu.cuda-11.8.cudnn8.6.tar.gz/usr/local路径下, create softlink by ln -s /usr/local/TensorRT-8.5.1.7 /usr/local/tensorRT
添加环境变量:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/tensorRT/lib:/usr/local/cuda/lib64:/usr/local/lib export CPATH=$CPATH:/usr/local/cuda/include:/usr/local/tensorRT/include 至 ~/.bashrc

安装gstreamer

apt-get install libgstreamer1.0-dev libgstreamer-plugins-base1.0-dev libgstreamer-plugins-bad1.0-dev gstreamer1.0-plugins-base gstreamer1.0-plugins-good gstreamer1.0-plugins-bad gstreamer1.0-plugins-ugly gstreamer1.0-libav gstreamer1.0-tools gstreamer1.0-x gstreamer1.0-alsa gstreamer1.0-gl gstreamer1.0-gtk3 gstreamer1.0-qt5 gstreamer1.0-pulseaudio libgstrtspserver-1.0-dev gstreamer1.0-rtsp

安装VideoPipe

在/home/usrname/VideoPipe下新建目录:mkdir build

cd /nodes

打开vp_infer_nodes.cpp,第一行加入宏定义:#define VP_WITH_CUDA

编译cuda+tensorrt版本
cd ..
cd /build
cmake -DVP_WITH_CUDA=ON -DVP_WITH_TRT=ON ..

也可以创建一个build_bash.sh,方便多次编译:

#!/bin/bash

# 设置项目根目录路径
PROJECT_DIR="/home/fine3/yolov8n-trt"
BUILD_DIR="${PROJECT_DIR}/build"

# 清空之前的 build 目录(如果存在)
echo "Cleaning previous build..."
rm -rf "${BUILD_DIR}"

# 创建新的 build 目录
echo "Creating new build directory..."
mkdir -p "${BUILD_DIR}"

# 进入到 build 目录
cd "${BUILD_DIR}"

# 使用 CMake 配置项目
echo "Running CMake..."
cmake -DVP_WITH_CUDA=ON -DVP_WITH_TRT=ON ..

# 编译项目
echo "Building project..."
make -j12

到此编译全部结束,安装完成。
在这里插入图片描述运行测试样例,可以看到显存利用正常,已开始利用NVIDIA-GPU进行TensorRT推理。

tensorRT engine plan error

在这里插入图片描述如果编译没有问题,推理时遇到算力不匹配的error,只需要在当前环境下重新转换.wts生成一下.engine就可以。

视频编解码报错

如果编译时构建target报错:Trying to load shared library libnvinfer_builder_resource.so.8.5.3 6: [libLoader.h::DynamicLibrary::54] Error Code 6: Internal Error (Unable to load library: libnvinfer_builder_resource.so.8.5.3)

find /usr -iname libnvinfer_builder_resource.so.8.5.1
// 复制下tensorRT的target构建文件
sudo cp /usr/local/TensorRT-8.5.1.7/targets/x86_64-linux-gnu/lib/libnvinfer_builder_resource.so.8.5.1 /usr/lib

http://www.kler.cn/a/610546.html

相关文章:

  • 【AI学习】概念了解
  • 【NLP 43、文本生成任务】
  • 鸿蒙 分布式数据摘要
  • Rust从入门到精通之进阶篇:12.高级类型系统
  • 人体的三个 Bug
  • 前端模拟 websocket 请求小工具
  • ngx_http_compile_complex_value
  • 文献学习:单细胞+临床+模型构建 | 一篇Molecular Cancer文献如何完整解读CDK4/6i耐药机制
  • SpringBoot大学生竞赛管理系统设计与实现
  • Redis 在后端系统中的高效应用
  • 去中心化金融
  • Maven插件学习(一)——生成可执行的 JAR 文件
  • AI时代智慧园区新标杆:华为联合51WORLD打造智能运营中心2.0
  • 六十天Linux从0到项目搭建(第五天)(file、bash 和 shell 的区别、目录权限、默认权限umask、粘滞位、使用系统自带的包管理工具)
  • 文件上传绕过的小点总结(4)
  • Spring Boot响应压缩配置与优化
  • qt QOffscreenSurface详解
  • Linux——进程信号(2)(函数信号与软件信号与硬件中断)
  • 问题:md文档转换word,html,图片,excel,csv
  • 《Git江湖录·分支篇》