当前位置: 首页 > article >正文

【深度学习】【RKNN】【C++】模型转化、环境搭建以及模型部署的详细教程

【深度学习】【RKNN】【C++】模型转化、环境搭建以及模型部署的详细教程

提示:博主取舍了很多大佬的博文并亲测有效,分享笔记邀大家共同学习讨论

文章目录

  • 【深度学习】【RKNN】【C++】模型转化、环境搭建以及模型部署的详细教程
  • 前言
  • 模型转换--pytorch转rknn
    • pytorch转onnx
    • onnx转rknn
  • RKNPU2平台搭建依赖环境
  • RKNPU2调用rknn模型
    • RKNPU2推理核心流程
    • RKNPU2推理代码
  • 总结


前言

Orangepi RKNN(Rockchip Neural Network)是Rockchip公司推出的一种用于其处理器上的高效神经网络加速技术。它与Rockchip的处理器紧密结合,旨在通过硬件加速提升AI应用的运行效率,特别是在边缘计算设备上,为嵌入式设备和边缘计算场景提供了高性能、低功耗的深度学习解决方案。RKNN Toolkit 和 RKNPU2 是支持RKNN技术的两个重要工具集。RKNN Toolkit 是一套软件开发工具包,提供了模型转换、优化、测试和部署等功能,帮助开发者将训练好的深度学习模型轻松转换为适合Rockchip硬件的格式,以获得最佳性能。而RKNPU2 则是指Rockchip的神经网络处理单元(Neural Processing Unit, NPU)的第二代驱动程序和库文件,它为RKNN Toolkit 提供底层支持,确保了模型能够在Rockchip的硬件上高效地执行。
RKNN Toolkit 和 RKNPU2 是对 Rockchip NPU最原生的支持。


模型转换–pytorch转rknn

博主在RK3566开发板上进行部署演示: 模型转化可以是在Ubuntu环境的主机上或者虚拟机上,但是模型部署必须是在 Orangepi 的开发板子上。

Pytorch 模型转 RKNN 并推理的步骤如下:

  1. 将 PyTorch 预训练模型文件( .pth 或 .pt 格式)转换成 ONNX 格式的文件(.onnx格式),这一转换过程在 PyTorch 环境中进行。
  2. 将转换得到的 .onnx 文件再次转换成 .rknn 格式的文件,这一转换过程需要在安装有转换工具 rknn-toolkit2 的Ubuntu系统上运行。这里博主建议在 docker 的 Ubuntu 虚拟机上进行。
  3. 将转换得到的 .rknn 文件随后作为输入,在 RKNN 平台上调用 RKNPU2 的 C++ API 来执行模型的推理。

pytorch转onnx

博主使用AlexNet图像分类(五种花分类)进行演示,需要安装pytorch环境,对于该算法的基础知识,可以参考博主【AlexNet模型算法Pytorch版本详解】博文。

conda create --name AlexNet python==3.10
conda activate AlexNet
# 根据自己主机配置环境
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
# 假设模型转化出错则降级为指定1.16.1版本
pip install onnx==1.16.1

然后把训练模型好的AlexNet.pth模型转成AlexNet.onnx模型,pyorch2onnx.py转换代码如下:
【AlexNet.pth百度云链接,提取码:ktq5 】直接下载使用即可。

import torch
from model import AlexNet
model = AlexNet(num_classes=5)
weights_path = "./AlexNet.pth"
# 加载模型权重
model.load_state_dict(torch.load(weights_path))
# 模型推理模式
model.eval()
model.cpu()
# 虚拟输入数据
dummy_input1 = torch.randn(1, 3, 224, 224)
# 模型转化函数
torch.onnx.export(model, (dummy_input1), "AlexNet.onnx", verbose=True, opset_version=11)

onnx转rknn

【平台:x64 架构 windoes11 docker虚拟机 Ubuntu 系统】
1.安装dockers【参考】: Windows11系统下安装并配置阿里云镜像加速,并完成启动。

2.下载 RKNN Toolkit 转换工具【githup下载】: 博主这里没有下载master分支,而是下载 rknn-toolkit2-v1.5.2分支。

3.搭建docker镜像: 在doc/Rockchip_Quick_Start_RKNN_SDK_V1.5.2_CN.pdf中,博主参考该官方文档详细介绍如何构建docker的Ubuntu容器并安装转换工具 rknn-toolkit2,以及其详细的使用方式。

docker常用指令
Dockerfile文件构建镜像镜像(不推荐):经常出现 failed with status code [manifests 18.04]: 403 Forbidden 的错误,博主暂时没有解决方案。

# 进入docker配置文件目录
cd XXX\rknn-toolkit2-1.x.x\docker\docker_file\ubuntu_xx_xx_cpxx
# eg: cd C:\Users\AYU\Downloads\rknn-toolkit2-1.5.2\docker\docker_file\ubuntu_18_04_cp36

# 查询配资文件
ls
# 出现三个文件分别是:
# 1.Dockerfile_ubuntu_18_04_for_cp36:特定 Dockerfile,用于创建一个基于Ubuntu 18.04的Docker镜像,专门针对Python3.6(cp36)进行配置.
# 2.rknn_toolkit2-1.5.2+b642f30c-cp36-cp36m-linux_x86_64.whl:针对Linux x86_64架构的rknn-toolkit2 Python(wheel )安装包,支持Python3.6(cp36).
# 3.sources_bionic.list: APT源列表文件,用于Ubuntu系统中的软件包管理.

# 构建 Docker 镜像 
# -f 指定Dockerfile文件  
# -t 镜像名:标签
docker build -f Dockerfile_ubuntu_xx_xx_for_cpxx -t rknn-toolkit2:x.x.x-cpxx .
# eg:docker build -f Dockerfile_ubuntu_18_04_for_cp36 -t rknn-toolkit2-env:1.5.2-cp36 .

Docker 镜像文件下载(推荐)【官方网盘,提取码:rknn】【个人网盘,提取码:rknn】

因为官方网盘没有保留一些旧版本的docker镜像,因此博主的个人网盘将旧的网盘补充完整了。

# 进入到docker镜像目录,加载镜像
docker load -i XXX\rknn-toolkit2-x.x.x-cpxx-docker.tar.gz
# eg: docker load -i E:\rknn-toolkit2-1.5.2-cp36-docker.tar.gz

# 查看安装的镜像
docker images

# 创建容器
docker run -it --name rknn_toolkit2_x.x.x_cpxx -d rknn-toolkit2:x.x.x-cpxx
# eg: docker run -it --name rknn_toolkit2_1.5.2_cp36 -d rknn-toolkit2:1.5.2-cp36

# 查看运行的容器
docker ps


4.完成模型onnx到rknn的转化: convert_rknn文件拷贝至虚拟机,完成转化过程,并将rknn模型从虚拟机拷贝到主机。

参考下载的rknn-toolkit2-1.5.2\examples\onnx\resnet50v2中的内容

convert_rknn文件包括之前成功转化的AlexNet.onnx模型文件,一张验证图片,一个保存着验证图片相对路径的dataset.txt,以及转化rknn所需的简化版代码convert.py。

convert.py内容如下:

import os
import urllib
import traceback
import time
import sys
import numpy as np
import cv2
from rknn.api import RKNN

ONNX_MODEL = 'AlexNet.onnx'
RKNN_MODEL = 'AlexNet.rknn'
DATASET = './dataset.txt'

if __name__ == '__main__':

    # 创建RKNN对象
    rknn = RKNN(verbose=True)

    # 配置RKNN模型:标准化以及指定部署平台
    print('--> config model')
    # 注意target_platform='rk3566'要替换成自己的平台
    rknn.config(mean_values=[127.5, 127.5, 127.5], std_values=[127.5, 127.5, 127.5], target_platform='rk3566')
    print('done')

    # 加载对应的深度学习框架
    print('--> Loading model')
    ret = rknn.load_onnx(model=ONNX_MODEL)
    if ret != 0:
        print('Load model failed!')
        exit(ret)
    print('done')

    # 构造RKNN模型
    print('--> Building model')
    # 注意do_quantization 用于控制模型参数和输入数据的量化,即是否将浮点数(float32)转换为整数(int8或int16).
    ret = rknn.build(do_quantization=True, dataset=DATASET)
    if ret != 0:
        print('Build model failed!')
        exit(ret)
    print('done')

    # 导出RKNN模型
    print('--> Export rknn model')
    ret = rknn.export_rknn(RKNN_MODEL)
    if ret != 0:
        print('Export rknn model failed!')
        exit(ret)
    print('done')

    # 释放RKNN对象
    rknn.release()

转化流程的指令如下:

# 将转化代码拷贝到ubuntu
docker cp E:\convert_rknn container_id:/root
# eg: docker cp E:\convert_rknn 38097dad59cc:/root

# 进入ubuntu容器
docker exec -it container_id bash
# eg: docker exec -it 38097dad59cc bash

# 执行代码
cd /root/convert_rknn
python convert.py

# 查看目录内容
ls

# 退出ubuntu容器,并将模型从ubuntu中拷贝出来
exit
docker cp container_id:/root/convert_rknn/xxx.rknn  E:\
# eg: docker cp 38097dad59cc:/root/convert_rknn/AlexNet.rknn  E:\



RKNPU2平台搭建依赖环境

【平台:aarch64 架构 Orange Pi 3B (RK3566) 的 Ubuntu 系统】
VNC可视化控制RK3566参考

常用的rknpu1、rknpu2用于端侧内容的开发和编译,对应python模型转换环境分别为:rknn-toolkit、rknn-toolkit2。

参考Rockchip NPU C++推理示例工程【githup下载】,构建AlexNet C++ 图像分类推理工程:

  1. rknpu2-master\examples\3rdparty\opencv\opencv-linux-aarch64拷贝到AlexNet;
  2. rknpu2-master\runtime\RK356X\Linux\librknn_api拷贝到AlexNet;
  3. 在AlexN目录下新建weights目录将rknn权重文件放到里面;
  4. 在AlexN目录下新建src目录放置推理代码用于执行c++推理(后面会提供);
  5. 构建CMakeLists.txt核心配置文件(后面会提供)。
 AlexNet 
   └── 3rdparty
       ├── opencv
       |   ├── opencv-linux-aarch64
   └── librknn_api
           ├── aarch64
           |   ├── vlibrknnrt.so
           ├── include
           |   ├── rknn_api.h
           |   ├── rknn_matmul_api.h
   └── src
       ├── AlexNet.cpp
   └── weights
       ├── AlexNet.rknn
   └── CMakeLists.txt

RKNPU2调用rknn模型

RKNPU2推理核心流程

初始化RKNN模型
用于初始化一个 RKNN 上下文,并加载指定的模型。

 ret = rknn_init(&ctx, model, model_len, 0, NULL);
rknn_init参数ctxmodelmodel_sizeflagsconfig
作用指向一个 rknn_context 类型的指针,用于存储初始化后的上下文。指向模型数据的指针,通常是经过编译和优化的二进制文件。以字节为单位模型数据的大小。用于指定一些特殊初始化选项的标志位,通常设置为 0。指向一个 rknn_sdk_config 结构体的指针,用于配置 SDK 的行为,不需要特殊配置通常设置为 NULL。

获取模型输入输出信息
用于查询 RKNN 上下文中的各种属性,包括输入和输出的详细信息(数量、名称和形状)、性能统计等信息。

ret = rknn_query(ctx, RKNN_QUERY_IN_OUT_NUM, &io_num, sizeof(io_num));
rknn_query参数ctxcmd*paramparam_size
作用调用 rknn_init 函数时已经初始化的 RKNN 上下文,标识当前的 RKNN 模型实例。查询命令,用于指定要查询的信息类型。指向一个缓冲区的指针,用于存储查询结果,缓冲区的类型和大小取决于查询命令。以字节为单位的缓冲区大小。
内容RKNN_QUERY_IN_OUT_COUNT:查询模型的输入和输出张量的数量。RKNN_QUERY_INPUT_ATTR:查询输入张量的属性。RKNN_QUERY_OUTPUT_ATTR:查询输出张量的属性。RKNN_QUERY_PERF_DETAIL:查询性能详细信息,包括每个层的执行时间。RKNN_QUERY_PERF_STAT:查询性能统计信息,包括总的执行时间和平均执行时间。RKNN_QUERY_TARGET_PROCESSOR:查询目标处理器信息。RKNN_QUERY_MODEL_INFO:查询模型信息,包括模型的版本、输入输出张量的数量等。

预处理输入数据
对输入数据进行颜色空间转换,尺寸缩放操作。

cv::cvtColor(orig_img, orig_img_rgb, cv::COLOR_BGR2RGB);
cv::resize(orig_img, img, cv::Size(MODEL_IN_WIDTH, MODEL_IN_HEIGHT), 0, 0, cv::INTER_LINEAR);

这部分不是 RKNPU2 核心部分,根据任务需求不同,代码略微不同。

设置输入
设置 RKNN 模型的输入数据。

 ret = rknn_inputs_set(ctx, io_num.n_input, inputs);
cudaMalloc参数ctxn_inputsinputs
作用标识当前的 RKNN 模型实例。输入张量的数量,与模型的输入张量数量必须一致。rknn_tensor_attr 结构体数组的指针,每个结构体描述一个输入张量的属性和数据。

执行推理
用于执行神经网络模型的推理,触发模型的前向传播过程,将输入数据传递给模型,并生成输出结果。

 ret = rknn_run(ctx, nullptr);
函数ctxmem
作用标识当前的 RKNN 模型实例。指向 rknn_input_output_mem 结构体数组的指针,用于指定输入和输出数据的内存地址;设置为 nullptr,则表示使用默认的输入和输出内存。

获取输出
设置 RKNN 模型的输入数据。

 ret = rknn_inputs_set(ctx, io_num.n_input, inputs);
cudaMalloc参数ctxn_inputsinputs
作用标识当前的 RKNN 模型实例。输入张量的数量,与模型的输入张量数量必须一致。rknn_tensor_attr 结构体数组的指针,每个结构体描述一个输入张量的属性和数据。

后处理推理结果
推理完成后,从输出张量中获取结果数据,根据需要对结果进行后处理,以获得最终的预测结果。

 cv::Mat prob(output_attrs[i].dims[0], output_attrs[i].dims[1], CV_32F, (float*)buffer);
 cv::minMaxLoc(prob, &minv, &maxv, &minL, &maxL); 

这部分不是 RKNPU2 核心部分,根据任务需求不同,代码基本不同。


RKNPU2推理代码

需要配置flower_classes.txt文件存储五种花的分类标签,并将其放置到工程目录的src路径下(推荐)。

daisy
dandelion
roses
sunflowers
tulips

这里需要将AlexNet.rknn放置到工程目录的weight路径下(推荐),并且将以下推理代码拷贝到src路径下的AlexNet.cpp文件中:

#include "opencv2/core/core.hpp"
#include "opencv2/imgcodecs.hpp"
#include "opencv2/imgproc.hpp"
#include "rknn_api.h"

#include <stdint.h>
#include <stdio.h>
#include <stdlib.h>
#include <sys/time.h>

#include <fstream>
#include <iostream>

using namespace std;
using namespace cv;


std::string labels_txt_file = "src/flower_classes.txt";
std::vector<std::string> readClassNames()
{
	std::vector<std::string> classNames;

	std::ifstream fp(labels_txt_file);
	if (!fp.is_open())
	{
		printf("could not open file...\n");
		exit(-1);
	}
	std::string name;
	while (!fp.eof())
	{
		std::getline(fp, name);
		if (name.length())
			classNames.push_back(name);
	}
	fp.close();
	return classNames;
}


// 从文件中读取二进制模型数据
// 参数:filename:模型文件名,model_size:模型大小 返回值:模型数据指针
static unsigned char *load_model(const char *filename, int *model_size)
{
  FILE *fp = fopen(filename, "rb");
  if (fp == nullptr)
  {
    printf("fopen %s fail!\n", filename);
    return NULL;
  }
  fseek(fp, 0, SEEK_END);
  int model_len = ftell(fp);
  unsigned char *model = (unsigned char *)malloc(model_len); // 申请模型大小的内存,返回指针
  fseek(fp, 0, SEEK_SET);
  if (model_len != fread(model, 1, model_len, fp))
  {
    printf("fread %s fail!\n", filename);
    free(model);
    return NULL;
  }
  *model_size = model_len;
  if (fp)
  {
    fclose(fp);
  }
  return model;
}

int main(int argc, char **argv)
{

  rknn_context ctx = 0;       //  Rockchip NPU 的上下文句柄,用于标识和管理当前的模型实例.
  int ret;                    //  用于检查函数调用是否成功.
  int model_len = 0;          //  用于存储模型文件的长度(以字节为单位).
  unsigned char *model;       //  指向模型数据的指针.
  int MODEL_IN_WIDTH;         //  输入模型图像的宽.
  int MODEL_IN_HEIGHT;        //  输入模型图像的高.
 
  // const char *model_path = "weights/AlexNet.rknn";
  // const char *img_path = "images/40410963_3ac280f23a_n.jpg";

  const char *model_path = argv[1];
   const char *img_path = argv[2];
  if (argc != 3)
  {
    printf("Usage: %s <rknn model> <image_path> \n", argv[0]);
    return -1;
  }

	std::vector<std::string> labels = readClassNames();   // 预测的目标标签数

  // ======================= 读取图片 ===================
  cv::Mat orig_img = imread(img_path, cv::IMREAD_COLOR);
  if (!orig_img.data)
  {
    printf("cv::imread %s fail!\n", img_path);
    return -1;
  }

  // ======================= 初始化RKNN模型 ===================
  model = load_model(model_path, &model_len);         // 获取模型指针
  ret = rknn_init(&ctx, model, model_len, 0, NULL);   // 初始化RKNN模型
  if (ret < 0)
  {
    printf("rknn_init fail! ret=%d\n", ret);
    return -1;
  }

  // ======================= 获取模型输入输出信息 ===================
  // ********** 输入输出数量 **********
  rknn_input_output_num io_num;
  ret = rknn_query(ctx, RKNN_QUERY_IN_OUT_NUM, &io_num, sizeof(io_num));                    // 使用rknn_query函数获取模型输入输出数量
  if (ret != RKNN_SUCC)
  {
    printf("rknn_query fail! ret=%d\n", ret);
    return -1;
  }
  printf("model input num: %d, output num: %d\n", io_num.n_input, io_num.n_output);         // 打印模型输入输出数量

  // ********** 输入输出属性 **********
  rknn_tensor_attr input_attrs[io_num.n_input];        // 使用rknn_tensor_attr结构体存储模型输入属性
  memset(input_attrs, 0, sizeof(input_attrs));         // 将input_attrs用0初始化

  for (int i = 0; i < io_num.n_input; i++)             // 网络可能有多个输入,遍历模型所有输入
  {
    input_attrs[i].index = i;                          // 设置模型输入索引
    ret = rknn_query(ctx, RKNN_QUERY_INPUT_ATTR, &(input_attrs[i]), sizeof(rknn_tensor_attr));    // 使用rknn_query函数获取模型输入信息,存储在input_attrs
    if (ret != RKNN_SUCC)
    {
      printf("rknn_query fail! ret=%d\n", ret);
      return -1;
    }
    MODEL_IN_WIDTH = input_attrs[i].dims[1];    // 获取模型输入的具体宽
    MODEL_IN_HEIGHT = input_attrs[i].dims[2];   // 获取模型输入的具体高
    // 打印模型输入信息
    printf("input tensors:  index=%d, name=%s, n_dims=%d, dims=[%d, %d, %d, %d], n_elems=%d, size=%d, fmt=%s, type=%s, qnt_type=%s, "
            "zp=%d, scale=%f\n",
            input_attrs[i].index, input_attrs[i].name, input_attrs[i].n_dims, input_attrs[i].dims[0], input_attrs[i].dims[1], 
            input_attrs[i].dims[2], input_attrs[i].dims[3],input_attrs[i].n_elems, input_attrs[i].size, get_format_string(input_attrs[i].fmt), 
            get_type_string(input_attrs[i].type),get_qnt_type_string(input_attrs[i].qnt_type), input_attrs[i].zp, input_attrs[i].scale);
  }

    rknn_tensor_attr output_attrs[io_num.n_output];       // 使用rknn_tensor_attr结构体存储模型输出信息
    memset(output_attrs, 0, sizeof(output_attrs));        // 将output_attrs用0初始化

    for (int i = 0; i < io_num.n_output; i++)             // 网络可能有多个输出,遍历模型所有输出
    {
      output_attrs[i].index = i;                          // 设置模型输入索引
      ret = rknn_query(ctx, RKNN_QUERY_OUTPUT_ATTR, &(output_attrs[i]), sizeof(rknn_tensor_attr));
      if (ret != RKNN_SUCC)
      {
        printf("rknn_query fail! ret=%d\n", ret);
        return -1;
      }
    // 打印模型输出信息
    printf("output tensors: index=%d, name=%s, n_dims=%d, dims=[%d, %d, %d, %d], n_elems=%d, size=%d, fmt=%s, type=%s, qnt_type=%s, "
            "zp=%d, scale=%f\n",
            output_attrs[i].index, output_attrs[i].name, output_attrs[i].n_dims, output_attrs[i].dims[0], output_attrs[i].dims[1], 
            output_attrs[i].dims[2], output_attrs[i].dims[3],output_attrs[i].n_elems, output_attrs[i].size, get_format_string(output_attrs[i].fmt), 
            get_type_string(output_attrs[i].type),get_qnt_type_string(output_attrs[i].qnt_type), output_attrs[i].zp, output_attrs[i].scale);
    }

    // ======================= 前处理 ===================
    cv::Mat orig_img_rgb;
    cv::cvtColor(orig_img, orig_img_rgb, cv::COLOR_BGR2RGB);      // 默认是BGR需要转化成RGB

    cv::Mat img = orig_img_rgb.clone();
    if (orig_img.cols != MODEL_IN_WIDTH || orig_img.rows != MODEL_IN_HEIGHT)
    {
      cv::resize(orig_img, img, cv::Size(MODEL_IN_WIDTH, MODEL_IN_HEIGHT), 0, 0, cv::INTER_LINEAR);           // 对图像尺寸进行缩放
    }

    // ======================= 设置模型输入 ===================
   
    rknn_input inputs[io_num.n_input];     // 使用rknn_input结构体存储模型输入信息
    memset(inputs, 0, sizeof(inputs));     // 将inputs用0初始化
    for (int i = 0; i < io_num.n_input; i++)
    { 
      inputs[i].index = input_attrs[i].index;     // 设置模型输入索引                                                    
      inputs[i].type = RKNN_TENSOR_UINT8;         // 设置模型输入类型                             
      inputs[i].size = input_attrs[i].dims[1] * input_attrs[i].dims[2] * input_attrs[i].dims[3] * sizeof(uint8_t);  // 设置模型输入大小
      inputs[i].fmt = input_attrs[i].fmt;         // 设置模型输入格式:NHWC                                    
      inputs[i].buf = img.data;                   // 设置模型输入数据                                                
    }
    
    ret = rknn_inputs_set(ctx, io_num.n_input, inputs);     // 使用rknn_inputs_set函数设置模型输入
    if (ret < 0)
    {
      printf("rknn_input_set fail! ret=%d\n", ret);
      return -1;
    }

    // ======================= 推理 ===================
    ret = rknn_run(ctx, nullptr);         // 使用rknn_run函数运行RKNN模型
    if (ret < 0)
    {
      printf("rknn_run fail! ret=%d\n", ret);
      return -1;
    }

    // ======================= 获取模型输出 ===================
    
    rknn_output outputs[io_num.n_output];     // 使用rknn_output结构体存储模型输出信息
    memset(outputs, 0, sizeof(outputs));      // 将outputs用0初始化
    for (int i = 0; i < io_num.n_output; i++)
    { 
    outputs[i].want_float = 1;                // 设置模型输出类型为float
    }
   
    ret = rknn_outputs_get(ctx, io_num.n_output, outputs, NULL);      // 使用rknn_outputs_get函数获取模型输出
    if (ret < 0)
    {
      printf("rknn_outputs_get fail! ret=%d\n", ret);
      return -1;
    }

    // ======================= 后处理 ===================
    
    for (int i = 0; i < io_num.n_output; i++)           // 遍历模型所有输出
    {
      float *buffer = (float *)outputs[i].buf;    // 模型输出数据
      // 1x5 获取输出数据并包装成一个cv::Mat对象,为了方便后处理
      cv::Mat prob(output_attrs[i].dims[0], output_attrs[i].dims[1], CV_32F, (float*)buffer);
      std::cout << "prob: " << prob << std::endl;
      // 后处理推理结果
      cv::Point maxL, minL;		// 用于存储图像分类中的得分最小值索引和最大值索引(坐标)
      double maxv, minv;			// 用于存储图像分类中的得分最小值和最大值
      cv::minMaxLoc(prob, &minv, &maxv, &minL, &maxL); 
      int max_index = maxL.x;		// 获得最大值的索引,只有一行所以列坐标既为索引
      std::cout << "label id: " << max_index << std::endl;
      cv::putText(orig_img, labels[max_index], cv::Point(50, 50), cv::FONT_HERSHEY_SIMPLEX, 1.0, cv::Scalar(0, 0, 255), 2, 8);
      cv::imwrite("./output.jpg", orig_img);
    }

    // ======================= 释放输出缓冲区 ===================
    rknn_outputs_release(ctx, 1, outputs);      // 释放rknn_outputs_get获取的输出
    if (ret < 0)
    {
      printf("rknn_outputs_release fail! ret=%d\n", ret);
      return -1;
    }
    else if (ctx > 0)
    {
      // ======================= 释放RKNN模型 ===================
      rknn_destroy(ctx);
    }
    // ======================= 释放模型数据 ===================
    if (model)
    {
      free(model);
    }
    return 0;
}

CMakeLists.txt核心配置文件:

# 设置最低版本号
cmake_minimum_required(VERSION 3.11 FATAL_ERROR)
# 设置项目名称,博主的平台是3566
project(rk3566-demo VERSION 0.0.1 LANGUAGES CXX)

# 输出系统信息
message(STATUS "System: ${CMAKE_SYSTEM_NAME} ${CMAKE_SYSTEM_VERSION}")

# 设置编译器
set(CMAKE_CXX_STANDARD 14)
set(CMAKE_CXX_STANDARD_REQUIRED ON)

#  rknn_api 文件夹路径
set(RKNN_API_PATH ${CMAKE_CURRENT_SOURCE_DIR}/librknn_api)
#  rknn_api include 路径
set(RKNN_API_INCLUDE_PATH ${RKNN_API_PATH}/include)
#  rknn_api lib 路径
set(RKNN_API_LIB_PATH ${RKNN_API_PATH}/aarch64/librknnrt.so)

# 寻找OpenCV库,使用自定义的OpenCV_DIR
set(3RDPARTY_PATH ${CMAKE_CURRENT_SOURCE_DIR}/3rdparty)
set(OpenCV_DIR ${3RDPARTY_PATH}/opencv/opencv-linux-${LIB_ARCH}/share/OpenCV)
find_package(OpenCV 3.4.5 REQUIRED) 

# 输出OpenCV信息
message(STATUS "include path: ${OpenCV_INCLUDE_DIRS}")

# 用来搜索头文件的目录
include_directories(
    ${OpenCV_INCLUDE_DIRS}
    ${RKNN_API_INCLUDE_PATH}
)

# 测试NPU:rknn alexnet 
add_executable(alexnet src/AlexNet.cpp)

# 链接库
target_link_libraries(alexnet
        ${RKNN_API_LIB_PATH}
        ${OpenCV_LIBS}
)

编译和链接,完成推理,查看结果:

# 用于配置 CMake 项目的命令 
# -S .: 指定了源代码目录,.当前目录
# -B build: 指定了构建目录,当前目录下创建build子目录
cmake -S . -B build

# 使用先前配置好的构建系统来编译和链接项目
cmake --build build

# 执行推理
./build/alexnet ./weights/AlexNet.rknn ./images/sunflowers.jpg

向日葵图片预测不准确:
在这里插入图片描述

不知道为什么,可能是在模型转化过程中造成了精度损失,在五种花分类这种类别相近的任务中,分类准确度超级低。


总结

尽可能简单、详细的介绍了pytorch模型到rknn模型的转化,C++下 RKNN Toolkit 和 RKNPU2 环境的搭建以及 rknn 模型的 RKNPU2 部署。


http://www.kler.cn/a/409835.html

相关文章:

  • LDR6020驱动的Type-C接口显示器解决方案
  • 由于centos停更,yum、docker等不支持,采用阿里云仓库搭建K8S
  • 「Mac玩转仓颉内测版30」基础篇10 - 区间类型详解
  • 开源宝藏:Smart-Admin 重复提交防护的 AOP 切面实现详解
  • 【Mysql】开窗聚合函数----SUM,AVG, MIN,MAX
  • Java语言程序设计 选填题知识点总结
  • 使用 Puppeteer 绕过 Captcha:实现商家数据自动化采集
  • 数据库连接池调优——可视化查询慢SQL利器
  • 1.Excel文本函数的使用
  • 通过map文件了解堆栈分配(STM32、MDK5)--避免堆栈溢出
  • 数学知识1
  • ubity3D基础
  • pytorchDay33
  • 【漏洞复现】CVE-2020-1956
  • 在接口实现时使用自定义对象的方法(非工具类,和单例模式)
  • Java中三种常用布局方式
  • Vue报错:error Mixed spaces and tabs no-mixed-spaces-and-tabs——报错处理
  • 神经网络归一化方法总结
  • 鸿蒙心路旅程:探索与收获之旅 勇攀高峰
  • 【我在CSDN成长】我的五周年创作纪念日
  • 掌握控制流的艺术:Go语言中的if、for和switch语句
  • php 导出excel 一个单元格 多张图片
  • 释放已删除空间资源
  • API设计与开发
  • MATLAB R2024b软件下载安装步骤
  • A047-基于Spring Boot的医疗挂号管理系统的设计与实现