当前位置: 首页 > article >正文

yolov5-6.2 在 rk3399pro 上的移植

文章目录

    • 一、搭建yolov5环境
    • 二、导出onnx模型
    • 三、安装 rknn-toolkit
    • 四、通过netron 查看 yolov5s.onnx 输出节点
    • 五、创建 onnx2rknn.py 文件
    • 六、通过toolkit将onnx转换为rknn模型
    • 七、在rk3399pro开发板上运行rknn模型

一、搭建yolov5环境

从yolov5官方仓库 ultralytics/yolov5/releases 中下载 yolov5-6.2 代码。
解压后,修改 requirements.txt :
1、将第12行 torch>=1.7.0 改为 torch==1.9.0
因为只有 pytorch 1.8.0 或 1.9.0 版本才能正常导出模型
2、删除第28、29行 onnx>=1.9.0 前的 # 号,否则无法导出onnx模型;
执行

pip install -r requirement.txt

验证环境是否搭建成功

python detect.py

二、导出onnx模型

1、进入 yolov5-6.2/models ,将 yolo.py 文件中 class Detect 中的 forward 函数,修改如下

def forward(self, x):
    z = []  # inference output
    for i in range(self.nl):
        x[i] = self.m[i](x[i])  # conv

    return x[0],x[1],x[2]

在这里插入图片描述
2、进入 yolov5-6.2 主目录,执行以下命令导出onnx模型

python export.py --weights yolov5s.pt --img 640 --batch 1 --opset 12 --include onnx

执行成功后,将在 yolov5s.pt 同目录生成 yolov5s.onnx 文件

三、安装 rknn-toolkit

1、下载docker版本的toolkit
从 rockchip-linux/rknn-toolkit 下载 docker版本的toolkit,提取码:rknn
在这里插入图片描述
这里下载的是 1.7.3 版本
在这里插入图片描述
2、在安装有docker的linux服务器上导入上述toolkit

docker load --input rknn-toolkit-1.7.3-docker.tar.gz

导入完成后执行 docker images,将看到 toolkit-1.7.3 镜像
在这里插入图片描述
执行以下命令,进入docker

docker run -t -i --privileged -v $PWD:/test rknn-toolkit:1.7.3 /bin/bash

其中 -v $PWD:/test 是指把当前目录映射到docker容器的/test目录内,这样当要和docker容器内部进行文件传输时,只需把需要传输的文件放到当前目录,就能在 docker 容器内的 /test 目录看到,反之亦然。
执行成功后,将自动进入docker容器内
在这里插入图片描述
可以看到已经有一个 test 目录,test 目录的内容就是服务器当前目录的内容。

四、通过netron 查看 yolov5s.onnx 输出节点

先安装后 netron,然后netron打开上述第二步导出的 yolov5s.onnx 模型,点击左上角图标,即可看到输出节点信息
在这里插入图片描述
可以看到这里的输出节点分别是: output、327、328,记住这几个输出节点,下一步导出rknn时将用到

五、创建 onnx2rknn.py 文件

在该文件中指定onnx_model路径,platform,以及 rknn.load_onnx 时一定要指定上一步查看的输出节点信息

from rknn.api import RKNN
ONNX_MODEL = 'yolov5s.onnx'
platform = "rk3399pro"
RKNN_MODEL = 'yolov5s_{}_out_opt.rknn'.format(platform)
if __name__ == '__main__':
    add_perm = False # 如果设置成True,则将模型输入layout修改成NHWC
    # Create RKNN object
    rknn = RKNN(verbose=True)
    # pre-process config
    print('--> config model')
    rknn.config(batch_size=1, mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], reorder_channel='0 1 2', target_platform=[platform], 
                force_builtin_perm=add_perm, output_optimize=1)
    print('done')
    # Load tensorflow model
    print('--> Loading model')
    ret = rknn.load_onnx(model=ONNX_MODEL,outputs=['output', '327', '328'])# 这里一定要根据onnx模型输出节点进行修改
    if ret != 0:
        print('Load onnx model failed!')
        exit(ret)
    print('done')
    # Build model
    print('--> Building model')
    ret = rknn.build(do_quantization=True, dataset='./dataset.txt')
    if ret != 0:
        print('Build rkmodel failed!')
        exit(ret)
    print('done')
    # rknn.export_rknn_precompile_model(RKNN_MODEL)
    rknn.export_rknn(RKNN_MODEL)
    rknn.release()

六、通过toolkit将onnx转换为rknn模型

1、将上述第二步导出的 yolov5s.onnx 模型以及 第五步创建的 onnx2rknn.py 放到服务器当前目录,即映射到docker容器内/test目录的目录;
2、进入docker容器内,执行

cp /test/yolov5s.onnx /examples/onnx/yolov5/
cp /test/onnx2rknn.py /examples/onnx/yolov5/
cd /examples/onnx/yolov5/
python onnx2rknn.py
cp yolov5s_rk3399pro_out_opt.rknn /test

执行完成后将生成相应的 yolov5s_rk3399pro_out_opt.rknn 模型
在这里插入图片描述

七、在rk3399pro开发板上运行rknn模型

1、下载 airockchip/RK3399Pro_npu,将其放到 rk3399pro 开发板上;
2、如有必要,根据说明更新NPU驱动,只需要替换相应的boot.img 即可;
3、进入 RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo 目录,执行以下命令

cd RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo
mkdir build
cd build
cmake -DCMAKE_C_COMPILER=/usr/bin/gcc -DCMAKE_CXX_COMPILER=/usr/bin/g++ ..
make -j4

执行成功后,将在build目录生成可执行程序 rknn_yolov5_demo
4、将上述第六步导出的yolov5s_rk3399pro_out_opt.rknn模型上传到rk3399pro的
RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo/model 目录
5、在RK3399Pro_npu-main/rknn-api/examples/c_demos/rknn_yolov5_demo创建以下运行脚本 run_demo.sh

export LD_LIBRARY_PATH=./lib/
./build/rknn_yolov5_demo  model/yolov5s_rk3399pro_out_opt.rknn  model/bus.bmp

6、执行脚本

./run_demo.sh

正常将输出预测信息
在这里插入图片描述
可视化结果如图所示
在这里插入图片描述


http://www.kler.cn/a/298156.html

相关文章:

  • 八、发票校验(2)
  • docker conda
  • 【学术会议征稿】2024年工业自动化与机器人国际学术会议(IAR 2024)
  • 网络安全新挑战:通用人工智能(AGI)等级保护指南_人工智能等级保护
  • TinyWebSever源码逐行注释(五)_ http_conn.cpp
  • SpringCloud集成ELK
  • STM32H7 如何使用ITCM DTCM?
  • Python教程(二十) : 十分钟入门【PyQt6】
  • Docker 容器在简化 MySQL 主从复制部署与优化
  • WMS仓储管理系统中条码打印管理
  • 内网渗透—横向移动非约束委派约束委派
  • 深度学习基础--卷积基础模块
  • 云原生技术:‌引领数字化转型的新浪潮
  • C++第四十八弹---深入理解智能指针:自动内存管理的艺术
  • 职场达人必备:六西格玛,让你事半功倍!——张驰咨询
  • Windows文件系统日志
  • 【数学建模国赛】前期准备
  • Java版ERP管理系统源码解析:利用Spring Cloud Alibaba和Spring Boot实现微服务架构
  • http 408错误
  • 数据结构知识点——常用的函数