当前位置: 首页 > article >正文

【深度学习】【RKNN】【C++】应用程序编程接口化处理详细教程

【深度学习】【RKNN】【C++】应用程序编程接口化处理详细教程

提示:博主取舍了很多大佬的博文并亲测有效,分享笔记邀大家共同学习讨论

文章目录

  • 【深度学习】【RKNN】【C++】应用程序编程接口化处理详细教程
  • 前言
  • 封装RKNN API
    • NNEngine引擎接口
    • RKEngine引擎接口以及实现
  • 封装前后处理
    • 前处理
    • 后处理
  • 封装自定义类型
    • 自定义数据类型
    • 自定义错误类型
  • 封装辅助功能
    • 日志包装器
    • 辅助互换函数
  • 主函数和CMake配置文件
  • 总结


前言

应用程序编程接口(API)是软件工程中的一种常见做法,本博文将RKNPU2推理代码拆分为不同的API,旨在提高代码的可维护性、复用性和模块化。这样做可以让你的应用更加灵活,更容易扩展,并且可以支持并发开发。

这里需要先学习一下【深度学习】【RKNN】【C++】模型转化、环境搭建以及模型部署的详细教程,本博文是其后续补充。

下列是拆分成不同API后的工程结构总览:

 AlexNet_API
   └── 3rdparty
       ├── opencv
       |   ├── opencv-linux-aarch64
   └── librknn_api
           ├── aarch64
           |   ├── vlibrknnrt.so
           ├── include
           |   ├── rknn_api.h
           |   ├── rknn_matmul_api.h
   └── src
       ├── engine
       |   ├── engine.h
       |   ├── rknn_engine.cpp
       |   ├── rknn_engine.h
       ├── process
       |   ├── postprocess.cpp
       |   ├── postprocess.h
       |   ├── preprocess.cpp
       |   ├── preprocess.h
       ├── types
       |   ├── datatype.h
       |   ├── error.h
       ├── utils
       |   ├── engine_helper.h
       |   ├── logging.h
   └── weights
       ├── AlexNet.rknn
   └── CMakeLists.txt

封装RKNN API

NNEngine引擎接口

定义NNEngine抽象类:不能实例化,全部使用纯虚函数,只能作为不同板子的基类使用,使得不同的引擎的接口一致,方便使用,也可以隐藏不同引擎的实现细节,方便维护。
engine.h

// 接口定义
// 预处理器指令 用于防止头文件的重复包含
#ifndef RK3566_DEMO_ENGINE_H
#define RK3566_DEMO_ENGINE_H

#include "types/error.h"
#include "types/datatype.h"

#include <vector>
#include <memory>

class NNEngine
{
public:
    virtual ~NNEngine(){};                                                                                               // 析构函数
    virtual nn_error_e LoadModelFile(const char *model_file) = 0;                                                        // 加载模型文件,=0表示纯虚函数,必须在子类中实现
    virtual const std::vector<tensor_attr_s> &GetInputShapes() = 0;                                                      // 获取输入张量的形状
    virtual const std::vector<tensor_attr_s> &GetOutputShapes() = 0;                                                     // 获取输出张量的形状
    virtual nn_error_e Run(std::vector<tensor_data_s> &inputs, std::vector<tensor_data_s> &outpus, bool want_float) = 0; // 运行模型
};

std::shared_ptr<NNEngine> CreateRKNNEngine(); // 智能指针类避免内存泄漏 创建RKNN引擎

#endif // RK3566_DEMO_ENGINE_H

RKEngine引擎接口以及实现

rknn_engine.h
继承自NNEngine接口:新增了部分私有变量。

#ifndef RK3566_DEMO_RKNN_ENGINE_H
#define RK3566_DEMO_RKNN_ENGINE_H

#include "engine.h"
#include <vector>
#include <rknn_api.h>

// 实现NNEngine的接口
class RKEngine : public NNEngine
{
public:
    RKEngine() : rknn_ctx_(0), ctx_created_(false), input_num_(0), output_num_(0){};    // 构造函数 初始化
    ~RKEngine() override;                                                               // 析构函数

    nn_error_e LoadModelFile(const char *model_file) override;                                                         // 加载模型文件
    const std::vector<tensor_attr_s> &GetInputShapes() override;                                                       // 获取输入张量的形状
    const std::vector<tensor_attr_s> &GetOutputShapes() override;                                                      // 获取输出张量的形状
    nn_error_e Run(std::vector<tensor_data_s> &inputs, std::vector<tensor_data_s> &outputs, bool want_float) override; // 运行模型

private:
    // rknn context
    rknn_context rknn_ctx_; // rknn context
    bool ctx_created_;      // rknn context是否创建

    uint32_t input_num_;  // 输入的数量
    uint32_t output_num_; // 输出的数量

    std::vector<tensor_attr_s> in_shapes_;  // 输入张量的形状
    std::vector<tensor_attr_s> out_shapes_; // 输出张量的形状
};

#endif // RK3566_DEMO_RKNN_ENGINE_H

rknn_engine.cpp
实现NNEngine:主要为加载模型和推理模型俩个函数。加载模型函数主要将核心流程中的初始化RKNN模型、获取模型输入输出信息部分整合在一起;推理模型函数则将设置输入、执行推理以及获取输出部分整合在一起。

// rknn_engine.h的实现

#include "rknn_engine.h"
#include <string.h>
#include "utils/engine_helper.h"
#include "utils/logging.h"

static const int g_max_io_num = 10; // 最大输入输出张量的数量

/**
 * @brief 加载模型文件、初始化rknn context、获取rknn版本信息、获取输入输出张量的信息
 * @param model_file 模型文件路径
 * @return nn_error_e 错误码
 */
nn_error_e RKEngine::LoadModelFile(const char *model_file)
{
    int model_len = 0;                                  // 模型文件大小
    auto model = load_model(model_file, &model_len);    // 加载模型文件
    if (model == nullptr)
    {
        NN_LOG_ERROR("load model file %s fail!", model_file);
        return NN_LOAD_MODEL_FAIL; // 返回错误码:加载模型文件失败
    }
    int ret = rknn_init(&rknn_ctx_, model, model_len, 0, NULL); // 初始化rknn context
    if (ret < 0)
    {
        NN_LOG_ERROR("rknn_init fail! ret=%d", ret);
        return NN_RKNN_INIT_FAIL; // 返回错误码:初始化rknn context失败
    }
    // 打印初始化成功信息
    NN_LOG_INFO("rknn_init success!");
    ctx_created_ = true;

    // 获取rknn版本信息
    rknn_sdk_version version;
    ret = rknn_query(rknn_ctx_, RKNN_QUERY_SDK_VERSION, &version, sizeof(rknn_sdk_version));
    if (ret < 0)
    {
        NN_LOG_ERROR("rknn_query fail! ret=%d", ret);
        return NN_RKNN_QUERY_FAIL;
    }
    // 打印rknn版本信息
    NN_LOG_INFO("RKNN API version: %s", version.api_version);
    NN_LOG_INFO("RKNN Driver version: %s", version.drv_version);

    // 获取输入输出个数
    rknn_input_output_num io_num;
    ret = rknn_query(rknn_ctx_, RKNN_QUERY_IN_OUT_NUM, &io_num, sizeof(io_num));
    if (ret != RKNN_SUCC)
    {
        NN_LOG_ERROR("rknn_query fail! ret=%d", ret);
        return NN_RKNN_QUERY_FAIL;
    }
    NN_LOG_INFO("model input num: %d, output num: %d", io_num.n_input, io_num.n_output);

    // 保存输入输出个数
    input_num_ = io_num.n_input;
    output_num_ = io_num.n_output;

    // 输入属性
    NN_LOG_INFO("input tensors:");
    rknn_tensor_attr input_attrs[io_num.n_input];
    memset(input_attrs, 0, sizeof(input_attrs));
    for (int i = 0; i < io_num.n_input; i++)
    {
        input_attrs[i].index = i;
        ret = rknn_query(rknn_ctx_, RKNN_QUERY_INPUT_ATTR, &(input_attrs[i]), sizeof(rknn_tensor_attr));
        if (ret != RKNN_SUCC)
        {
            NN_LOG_ERROR("rknn_query fail! ret=%d", ret);
            return NN_RKNN_QUERY_FAIL;
        }
        print_tensor_attr(&(input_attrs[i]));
        // set input_shapes_
        in_shapes_.push_back(rknn_tensor_attr_convert(input_attrs[i]));
    }

    // 输出属性
    NN_LOG_INFO("output tensors:");
    rknn_tensor_attr output_attrs[io_num.n_output];
    memset(output_attrs, 0, sizeof(output_attrs));
    for (int i = 0; i < io_num.n_output; i++)
    {
        output_attrs[i].index = i;
        ret = rknn_query(rknn_ctx_, RKNN_QUERY_OUTPUT_ATTR, &(output_attrs[i]), sizeof(rknn_tensor_attr));
        if (ret != RKNN_SUCC)
        {
            NN_LOG_ERROR("rknn_query fail! ret=%d", ret);
            return NN_RKNN_QUERY_FAIL;
        }
        print_tensor_attr(&(output_attrs[i]));
        // set output_shapes_
        out_shapes_.push_back(rknn_tensor_attr_convert(output_attrs[i]));
    }

    return NN_SUCCESS;
}

// 获取输入张量的形状
const std::vector<tensor_attr_s> &RKEngine::GetInputShapes()
{
    return in_shapes_;
}

// 获取输出张量的形状
const std::vector<tensor_attr_s> &RKEngine::GetOutputShapes()
{
    return out_shapes_;
}

/**
 * @brief 运行模型,获得推理结果
 * @param inputs 输入张量
 * @param outputs 输出张量
 * @param want_float 是否需要float类型的输出
 * @return nn_error_e 错误码
 */
nn_error_e RKEngine::Run(std::vector<tensor_data_s> &inputs, std::vector<tensor_data_s> &outputs, bool want_float)
{
    // 检查输入输出张量的数量是否匹配
    if (inputs.size() != input_num_)
    {
        NN_LOG_ERROR("inputs num not match! inputs.size()=%ld, input_num_=%d", inputs.size(), input_num_);
        return NN_IO_NUM_NOT_MATCH;
    }
    if (outputs.size() != output_num_)
    {
        NN_LOG_ERROR("outputs num not match! outputs.size()=%ld, output_num_=%d", outputs.size(), output_num_);
        return NN_IO_NUM_NOT_MATCH;
    }

    // 设置rknn inputs
    rknn_input rknn_inputs[g_max_io_num];
    for (int i = 0; i < inputs.size(); i++)
    {
        // 将自定义的tensor_data_s转换为rknn_input
        rknn_inputs[i] = tensor_data_to_rknn_input(inputs[i]);
    }
    int ret = rknn_inputs_set(rknn_ctx_, (uint32_t)inputs.size(), rknn_inputs);
    if (ret < 0)
    {
        NN_LOG_ERROR("rknn_inputs_set fail! ret=%d", ret);
        return NN_RKNN_INPUT_SET_FAIL;
    }

    // 推理
    NN_LOG_DEBUG("rknn running...");
    ret = rknn_run(rknn_ctx_, nullptr);
    if (ret < 0)
    {
        NN_LOG_ERROR("rknn_run fail! ret=%d", ret);
        return NN_RKNN_RUNTIME_ERROR;
    }

    // 获得输出
    rknn_output rknn_outputs[g_max_io_num];
    memset(rknn_outputs, 0, sizeof(rknn_outputs));
    for (int i = 0; i < output_num_; ++i)
    {
        rknn_outputs[i].want_float = want_float ? 1 : 0;
    }
    ret = rknn_outputs_get(rknn_ctx_, output_num_, rknn_outputs, NULL);
    if (ret < 0)
    {
        printf("rknn_outputs_get fail! ret=%d\n", ret);
        NN_LOG_ERROR("rknn_outputs_get fail! ret=%d", ret);
        return NN_RKNN_OUTPUT_GET_FAIL;
    }

    NN_LOG_DEBUG("output num: %d", output_num_);
    // copy rknn outputs to tensor_data_s
    for (int i = 0; i < output_num_; ++i)
    {
        // 将rknn_output转换为自定义的tensor_data_s
        rknn_output_to_tensor_data(rknn_outputs[i], outputs[i]);
        NN_LOG_DEBUG("output[%d] size=%d", i, outputs[i].attr.size);
    }
    return NN_SUCCESS;
}

// 析构函数
RKEngine::~RKEngine()
{
    if (ctx_created_)
    {
        rknn_destroy(rknn_ctx_);
        NN_LOG_INFO("rknn context destroyed!");
    }
}

// 创建RKNN引擎
std::shared_ptr<NNEngine> CreateRKNNEngine()
{
    return std::make_shared<RKEngine>();
}

封装前后处理

前处理

preprocess.h
核心流程中的预处理输入数据:对输入数据进行颜色空间转换,尺寸缩放操作。

// 前处理
#ifndef RK3566_DEMO_PREPROCESS_H
#define RK3566_DEMO_PREPROCESS_H
#include <opencv2/opencv.hpp>
#include "types/datatype.h"

void imgPreprocess(const cv::Mat &img, cv::Mat &img_resized, uint32_t width, uint32_t height);
#endif //RK3566_DEMO_PREPROCESS_H

preprocess.cpp

// 前处理
#include "preprocess.h"
#include "utils/logging.h"

void imgPreprocess(const cv::Mat &img, cv::Mat &img_resized, uint32_t width, uint32_t height)
{
    // img has to be 3 channels
    if (img.channels() != 3)
    {
        NN_LOG_ERROR("img has to be 3 channels");
        exit(-1);
    }

    cv::Mat img_rgb;
    // bggr to rgb
    cv::cvtColor(img, img_rgb, cv::COLOR_BGR2RGB);
    // resize img
    cv::resize(img_rgb, img_resized, cv::Size(width, height), 0, 0, cv::INTER_LINEAR);
}

后处理

postprocess.h
核心流程中的后处理推理结果:推理完成后,从输出张量中获取结果数据,根据需要对结果进行后处理,以获得最终的预测结果。

// 后处理
#ifndef RK3566_DEMO_POSTPROCESS_H
#define RK3566_DEMO_POSTPROCESS_H

#include <stdint.h>
#include <vector>
#include "opencv2/core/core.hpp"
#include "opencv2/imgcodecs.hpp"
#include "opencv2/imgproc.hpp"

int get_classification(float* pfProb, uint32_t out_w, uint32_t out_h);

#endif //RK3566_DEMO_POSTPROCESS_H

postprocess.cpp

// 后处理
#include <string.h>
#include <stdlib.h>
#include <algorithm>
#include <iostream>
#include "postprocess.h"
#include "utils/logging.h"

int get_classification(float* pfProb, uint32_t out_w, uint32_t out_h) {
     // 1x5 获取输出数据并包装成一个cv::Mat对象,为了方便后处理
      cv::Mat prob(out_w, out_h, CV_32F, (float*) pfProb);
      std::cout << "prob : " << prob << std::endl;
      // 后处理推理结果
      cv::Point maxL, minL;		// 用于存储图像分类中的得分最小值索引和最大值索引(坐标)
      double maxv, minv;			// 用于存储图像分类中的得分最小值和最大值
      cv::minMaxLoc(prob, &minv, &maxv, &minL, &maxL); 
      int max_index = maxL.x;		// 获得最大值的索引,只有一行所以列坐标既为索引
    return max_index;
}

封装自定义类型

定义的NNEngine接口,其子类实现了RKNN API封装,同样也可以对未来新增的不同框架API进行封装,为了NNEngine与包括RKNN API在内的不同官方类型进行转化,提升兼容性和可扩展性,因此需要自定义类型。

RKNN API官方类型librknn_api/include/rknn_api.h中。

自定义数据类型

datatype.h

// 自定义定义数据类型
#ifndef RK3566_DEMO_DATATYPE_H
#define RK3566_DEMO_DATATYPE_H

#include <stdint.h>
#include <stdlib.h>

#include "utils/logging.h"
#include "types/error.h"

// 输入数据(张量)的不同通道布局
typedef enum _tensor_layout
{   
    // N批次batch,C通道数channel,H高度height,W宽度width
    NN_TENSORT_LAYOUT_UNKNOWN = 0,
    NN_TENSOR_NCHW = 1,
    NN_TENSOR_NHWC = 2,
    NN_TENSOR_OTHER = 3,
} tensor_layout_e;

// 输入数据(张量)的不同数据类型
typedef enum _tensor_datatype
{
    NN_TENSOR_INT8 = 1,
    NN_TENSOR_UINT8 = 2,
    NN_TENSOR_FLOAT = 3,
    NN_TENSOR_FLOAT16 = 4,
} tensor_datatype_e;

// 输入数据(张量)的维度
static const int g_max_num_dims = 4;

// 输入数据(张量)的基本信息
typedef struct
{
    uint32_t index;                 // 存在多个输入数据时的索引
    uint32_t n_dims;                // 输入数据维度的数量
    uint32_t dims[g_max_num_dims];  // 不同维度的大小
    uint32_t n_elems;               // 输入数据元素的个数 
    uint32_t size;                  // 元素的占用空间(字节):元素的个数×每个元素的占用空间
    tensor_datatype_e type;         // 元素的数据类型,不同类型就和不同占用空间有关
    tensor_layout_e layout;         // 输入数据的通道布局
    int32_t zp;                     // 非对称仿射量化方法中的零点值
    float scale;                    // 非对称仿射量化方法中的缩放值
} tensor_attr_s;

// 输入数据(张量)的完整内容:输入数据基本信息+输入数据本身
typedef struct
{
    tensor_attr_s attr;
    void *data;
} tensor_data_s;


// 不同数据类型的占用空间
static size_t nn_tensor_type_to_size(tensor_datatype_e type)
{
    switch (type)
    {
    case NN_TENSOR_INT8:
        return sizeof(int8_t);
    case NN_TENSOR_UINT8:
        return sizeof(uint8_t);
    case NN_TENSOR_FLOAT:
        return sizeof(float);
    case NN_TENSOR_FLOAT16:
        return sizeof(uint16_t);
    default:
        NN_LOG_ERROR("unsupported tensor type");
        exit(-1);
    }
}

// 设置输入数据的完整内容:整个过程就是将基本信息复制到完整内容中
static void nn_tensor_attr_to_cvimg_input_data(const tensor_attr_s &attr, tensor_data_s &data)
{   
    if (attr.n_dims != 4)
    {
        NN_LOG_ERROR("unsupported input dims");
        exit(-1);
    }
    data.attr.n_dims = attr.n_dims;
    data.attr.index = 0;
    data.attr.type = NN_TENSOR_UINT8;               // 在转成rknn模型时候通常会选择量化,因此输入数据类型通常都是UINT8
    data.attr.layout = NN_TENSOR_NHWC;              // 在转成rknn模型时候通常是NHWC格式
    if (attr.layout == NN_TENSOR_NCHW)
    {
        data.attr.dims[0] = attr.dims[0];
        data.attr.dims[1] = attr.dims[2];
        data.attr.dims[2] = attr.dims[3];
        data.attr.dims[3] = attr.dims[1];
    }
    else if (attr.layout == NN_TENSOR_NHWC)
    {
        data.attr.dims[0] = attr.dims[0];
        data.attr.dims[1] = attr.dims[1];
        data.attr.dims[2] = attr.dims[2];
        data.attr.dims[3] = attr.dims[3];
    }
    else
    {
        NN_LOG_ERROR("unsupported input layout");
        exit(-1);
    }
    // 计算输入元素个数
    data.attr.n_elems = data.attr.dims[0] * data.attr.dims[1] *
                        data.attr.dims[2] * data.attr.dims[3];
    // 计算输入元素的占用空间
    data.attr.size = data.attr.n_elems * sizeof(uint8_t);
}

#endif // RK3566_DEMO_DATATYPE_H

自定义错误类型

error.h

// 自定义错误码
#ifndef RK3566_DEMO_ERROR_H
#define RK3566_DEMO_ERROR_H
typedef enum
{
    NN_SUCCESS = 0,                 // 成功
    NN_LOAD_MODEL_FAIL = -1,        // 加载模型失败
    NN_RKNN_INIT_FAIL = -2,         // rknn初始化失败
    NN_RKNN_QUERY_FAIL = -3,        // rknn查询失败
    NN_RKNN_INPUT_SET_FAIL = -4,    // rknn设置输入数据失败
    NN_RKNN_RUNTIME_ERROR = -5,     // rknn运行时错误
    NN_IO_NUM_NOT_MATCH = -6,       // 输入输出数量不匹配
    NN_RKNN_OUTPUT_GET_FAIL = -7,   // rknn获取输出数据失败
    NN_RKNN_INPUT_ATTR_ERROR = -8,  // rknn输入数据属性错误
    NN_RKNN_OUTPUT_ATTR_ERROR = -9, // rknn输出数据属性错误
    NN_RKNN_MODEL_NOT_LOAD = -10,   // rknn模型未加载
} nn_error_e;

#endif // RK3566_DEMO_ERROR_H

封装辅助功能

日志包装器

logging.h
宏定义来实现日志记录是一种强大且灵活的方法,它可以帮助开发者更好地控制日志输出,实现代码的灵活性,同时提高代码的性能和可维护性。

rknn_engine.cpp很多信息输出都是用日志记录的形式。

// 日志包装器,便于更换
#ifndef RK3566_DEMO_LOGGING_H
#define RK3566_DEMO_LOGGING_H

#include <stdio.h>

// 日志等级:从低到高
// 0: no log
// 1: error
// 2: error, warning
// 3: error, warning, info
// 4: error, warning, info, debug
static int32_t g_log_level = 4;

// 打印信息日志信息
// #defin 宏定义配合 do...while(0) 结构是常见的编程技巧,用于确保宏定义的行为类似于一个单独的语句
#define NN_LOG_ERROR(...)          \
    do                             \
    {                              \
        if (g_log_level >= 1)      \
        {                          \
            printf("[NN_ERROR] "); \
            printf(__VA_ARGS__);   \
            printf("\n");          \
        }                          \
    } while (0)

#define NN_LOG_WARNING(...)          \
    do                               \
    {                                \
        if (g_log_level >= 2)        \
        {                            \
            printf("[NN_WARNING] "); \
            printf(__VA_ARGS__);     \
            printf("\n");            \
        }                            \
    } while (0)

#define NN_LOG_INFO(...)          \
    do                            \
    {                             \
        if (g_log_level >= 3)     \
        {                         \
            printf("[NN_INFO] "); \
            printf(__VA_ARGS__);  \
            printf("\n");         \
        }                         \
    } while (0)

#define NN_LOG_DEBUG(...)          \
    do                             \
    {                              \
        if (g_log_level >= 4)      \
        {                          \
            printf("[NN_DEBUG] "); \
            printf(__VA_ARGS__);   \
            printf("\n");          \
        }                          \
    } while (0)

#endif // RK3566_DEMO_LOGGING_H

辅助互换函数

engine_helper.h
实现了加载标签和模型文件的辅助函数,以及实现了nn自定义类型和rknn官方类型的互换函数,未来封装更多API后,可扩展nn自定义类型和其他官方类型的互换函数。

// 辅助互换函数
#ifndef RK3566_DEMO_ENGINE_HELPER_H
#define RK3566_DEMO_ENGINE_HELPER_H

#include <fstream>
#include <string.h>
#include <vector>
#include <rknn_api.h>
#include "utils/logging.h"
#include "types/datatype.h"

/**
 * @brief 加载标签文件
 * @param labels_txt_file 标签文件路径
 * @return std::vector<std::string> 输出标签名称
 */
std::vector<std::string> readClassNames(std::string labels_txt_file)
{
	std::vector<std::string> classNames;

	std::ifstream fp(labels_txt_file);
	if (!fp.is_open())
	{
		printf("could not open file...\n");
		exit(-1);
	}
	std::string name;
	while (!fp.eof())
	{
		std::getline(fp, name);
		if (name.length())
			classNames.push_back(name);
	}
	fp.close();
	return classNames;
}
/**
 * @brief 加载模型文件
 * @param filename 模型文件路径
 * @param model_size 模型文件大小,会在函数内部赋值
 * @return unsigned char* 模型文件数据
 */
static unsigned char *load_model(const char *filename, int *model_size)
{
    FILE *fp = fopen(filename, "rb");
    if (fp == nullptr)
    {
        NN_LOG_ERROR("fopen %s fail!", filename);
        return nullptr;
    }
    fseek(fp, 0, SEEK_END);
    int model_len = ftell(fp);
    unsigned char *model = (unsigned char *)malloc(model_len);
    fseek(fp, 0, SEEK_SET);
    if (model_len != fread(model, 1, model_len, fp))
    {
        NN_LOG_ERROR("fread %s fail!", filename);
        free(model);
        return nullptr;
    }
    *model_size = model_len;
    if (fp)
    {
        fclose(fp);
    }
    return model;
}

// 打印模型的输入输出的基本信息
static void print_tensor_attr(rknn_tensor_attr *attr)
{
    NN_LOG_INFO("  index=%d, name=%s, n_dims=%d, dims=[%d, %d, %d, %d], n_elems=%d, size=%d, fmt=%s, type=%s, qnt_type=%s, "
                "zp=%d, scale=%f",
                attr->index, attr->name, attr->n_dims, attr->dims[0], attr->dims[1], attr->dims[2], attr->dims[3],
                attr->n_elems, attr->size, get_format_string(attr->fmt), get_type_string(attr->type),
                get_qnt_type_string(attr->qnt_type), attr->zp, attr->scale);
}


// 通道布局:nn转换成对应的rknn
static rknn_tensor_format rknn_layout_convert(tensor_layout_e fmt)
{
    switch (fmt)
    {
    case NN_TENSOR_NCHW:
        return RKNN_TENSOR_NCHW;
    case NN_TENSOR_NHWC:
        return RKNN_TENSOR_NHWC;
    default:
        NN_LOG_ERROR("unsupported nn layout: %d\n", fmt);
        // exit program
        exit(1);
    }
}

// 数据类型:nn转换成对应的rknn
static rknn_tensor_type rknn_type_convert(tensor_datatype_e type)
{
    switch (type)
    {
    case NN_TENSOR_UINT8:
        return RKNN_TENSOR_UINT8;
    case NN_TENSOR_FLOAT:
        return RKNN_TENSOR_FLOAT32;
    default:
        NN_LOG_ERROR("unsupported nn type: %d\n", type);
        // exit program
        exit(1);
    }
}

// 通道布局:rkknn转化成对应的nn
static tensor_layout_e rknn_layout_convert(rknn_tensor_format fmt)
{
    switch (fmt)
    {
    case RKNN_TENSOR_NCHW:
        return NN_TENSOR_NCHW;
    case RKNN_TENSOR_NHWC:
        return NN_TENSOR_NHWC;
    default:
        return NN_TENSOR_OTHER;
    }
}

// 数据类型:rknn转换成对应的nn
static tensor_datatype_e rknn_type_convert(rknn_tensor_type type)
{
    switch (type)
    {
    case RKNN_TENSOR_UINT8:
        return NN_TENSOR_UINT8;
    case RKNN_TENSOR_FLOAT32:
        return NN_TENSOR_FLOAT;
    case RKNN_TENSOR_INT8:
        return NN_TENSOR_INT8;
    case RKNN_TENSOR_FLOAT16:
        return NN_TENSOR_FLOAT16;
    default:
        NN_LOG_ERROR("unsupported rknn type: %d\n", type);
        // exit program
        exit(1);
    }
}

// 输入数据:rknn官方类型转nn自定义类型
static tensor_attr_s rknn_tensor_attr_convert(const rknn_tensor_attr &attr)
{
    tensor_attr_s shape;
    shape.n_dims = attr.n_dims;
    shape.index = attr.index;
    for (int i = 0; i < attr.n_dims; ++i)
    {
        shape.dims[i] = attr.dims[i];
    }
    shape.size = attr.size;
    shape.n_elems = attr.n_elems;   
    shape.layout = rknn_layout_convert(attr.fmt);
    shape.type = rknn_type_convert(attr.type);
    shape.zp = attr.zp;
    shape.scale = attr.scale;
    return shape;
}

// 输入数据:nn自定义类型转rknn官方类型,为了输入到rknn模型
static rknn_input tensor_data_to_rknn_input(const tensor_data_s &data)
{
    rknn_input input;
    memset(&input, 0, sizeof(input));
    // set default not passthrough
    input.index = data.attr.index;
    input.type = rknn_type_convert(data.attr.type);
    input.size = data.attr.size;
    input.fmt = rknn_layout_convert(data.attr.layout);
    input.buf = data.data;
    return input;
}

// 输出数据:rknn官方类型转nn自定义类型,方便后处理
static void rknn_output_to_tensor_data(const rknn_output &output, tensor_data_s &data)
{
    data.attr.index = output.index;
    data.attr.size = output.size;
    NN_LOG_DEBUG("output size: %d", output.size);
    NN_LOG_DEBUG("output want_float: %d", output.want_float);
    memcpy(data.data, output.buf, output.size);
}

#endif // RK3566_DEMO_ENGINE_HELPER_H

主函数和CMake配置文件

AlexNet_API.cpp

// 导入相关库
#include <iostream>
#include <opencv2/opencv.hpp>
#include "engine/engine.h"
#include "process/preprocess.h"
#include "process/postprocess.h"
#include "utils/logging.h"
#include "utils/engine_helper.h"

int main(int argc, char **argv)
{
    // 模型文件路径
    const char *model_file = argv[1];
    // 图片文件路径
    const char *img_file = argv[2];
    std::string labels_txt_file = "src/flower_classes.txt";
    std::vector<std::string> labels = readClassNames(labels_txt_file); 

    // ==================== 1. 加载引擎 ==================== 
    // 使用shared_ptr智能指针创建引擎,类型是接口中定义的NNEngine,但是实际上是RKEngine
    std::shared_ptr<NNEngine> engine = CreateRKNNEngine();
    
    // 加载模型文件、初始化rknn context、获取rknn版本信息、获取输入输出张量的信息
    engine->LoadModelFile(model_file);

    // 获取输入输出张量的形状
    auto input_attrs = engine->GetInputShapes();
    auto output_attrs = engine->GetOutputShapes();

    NN_LOG_INFO("processing input data");
    uint32_t n_dims = input_attrs[0].n_dims;  
    uint32_t batch = input_attrs[0].dims[0];           // 根据输入属性查询输入张量的批次(参考:dims=[1, 224, 224, 3])
    uint32_t in_h = input_attrs[0].dims[1];            // 高度
    uint32_t in_w = input_attrs[0].dims[2];            // 宽度
    uint32_t channel = input_attrs[0].dims[3];         // 通道
    tensor_datatype_e type = input_attrs[0].type;      // 数据类型
    tensor_layout_e layout = input_attrs[0].layout;    // 通道布局
    uint32_t bytes = nn_tensor_type_to_size(type);     // 数据类型的占用空间

    // ==================== 2. 读取、预处理图片 ====================
    // 加载图片
    cv::Mat orig_img = cv::imread(img_file);
    // 预处理 bgr->rgb, resize
    cv::Mat img_resized;
    imgPreprocess(orig_img, img_resized, in_w, in_h);

    // ==================== 3. 设置输入、输出属性 ====================
    // 输入数据
    tensor_data_s input;
    input.attr.n_dims = n_dims;
    input.attr.dims[0] = batch;
    input.attr.dims[1] = in_h;
    input.attr.dims[2] = in_w;
    input.attr.dims[3] = channel;
    input.attr.size = channel * in_h * in_w;
    // input.attr.type = type;
    input.attr.type = NN_TENSOR_UINT8;
    input.attr.layout = layout;
    input.data = malloc(input.attr.size * bytes);
    // 将图片数据拷贝到input.data中
    memcpy(input.data, img_resized.data, input.attr.size);

    // 将input追加到inputs中
    std::vector<tensor_data_s> inputs;
    inputs.push_back(input);
    NN_LOG_DEBUG("done preprocessing input data");

    // 输出数据
    std::vector<tensor_data_s> outputs;
    tensor_data_s output;
    output.data = malloc(output_attrs[0].n_elems * sizeof(float));
    outputs.push_back(output);

    // ==================== 4. 推理 ====================
    NN_LOG_INFO("running...");
    engine->Run(inputs, outputs, true);

    // ==================== 5. 后处理 ====================
    uint32_t out_h = output_attrs[0].dims[0];  // 高度
    uint32_t out_w = output_attrs[0].dims[1];  // 宽度
    float *buffer = (float *)output.data;
    int max_index = get_classification(buffer, out_h, out_w);
    std::cout << "label id: " << max_index << std::endl;
    cv::putText(orig_img, labels[max_index], cv::Point(50, 50), cv::FONT_HERSHEY_SIMPLEX, 1.0, cv::Scalar(0, 0, 255), 2, 8);
    cv::imwrite("./output.jpg", orig_img);
    return 0;
}

CMakeLists.txt

# 设置最低版本号
cmake_minimum_required(VERSION 3.11 FATAL_ERROR)
# 设置项目名称
project(rk3566-demo VERSION 0.0.1 LANGUAGES CXX)

# 输出系统信息
message(STATUS "System: ${CMAKE_SYSTEM_NAME} ${CMAKE_SYSTEM_VERSION}")

# 设置编译器
set(CMAKE_CXX_STANDARD 14)
set(CMAKE_CXX_STANDARD_REQUIRED ON)

# 设置库架构
#  rknn_api 文件夹路径
set(RKNN_API_PATH ${CMAKE_CURRENT_SOURCE_DIR}/librknn_api)
#  rknn_api include 路径
set(RKNN_API_INCLUDE_PATH ${RKNN_API_PATH}/include)
#  rknn_api lib 路径
set(RKNN_API_LIB_PATH ${RKNN_API_PATH}/aarch64/librknnrt.so)

# 寻找OpenCV库,使用自定义的OpenCV_DIR
set(3RDPARTY_PATH ${CMAKE_CURRENT_SOURCE_DIR}/3rdparty)
set(OpenCV_DIR ${3RDPARTY_PATH}/opencv/opencv-linux-aarch64/share/OpenCV)
find_package(OpenCV 3.4.5 REQUIRED)
# 输出OpenCV信息
message(STATUS "    include path: ${OpenCV_INCLUDE_DIRS}")


# 用来搜索头文件的目录
include_directories(
    ${OpenCV_INCLUDE_DIRS}
    ${RKNN_API_INCLUDE_PATH}
    ${CMAKE_CURRENT_SOURCE_DIR}/src
)

# 构建预处理和后处理库
add_library(nn_process SHARED
            src/process/preprocess.cpp
            src/process/postprocess.cpp
)
# 链接库
target_link_libraries(nn_process
    ${OpenCV_LIBS}
)

# 构建自定义封装API库
add_library(rknn_engine SHARED 
            src/engine/rknn_engine.cpp) 
# 链接库
target_link_libraries(rknn_engine
    ${RKNN_API_LIB_PATH}
)

# 测试自定义封装API
add_executable(alexnet_api src/AlexNet_API.cpp)

# 链接库
target_link_libraries(alexnet_api
        rknn_engine
        nn_process
)

编译和链接,完成推理,查看结果:

# 用于配置 CMake 项目的命令 
# -S .: 指定了源代码目录,.当前目录
# -B build: 指定了构建目录,当前目录下创建build子目录
cmake -S . -B build

# 使用先前配置好的构建系统来编译和链接项目
cmake --build build

# 执行推理
 ./build/alexnet_api ./weights/AlexNet.rknn ./images/sunflowers.jpg 

图片依旧正确预测为向日葵:


总结

尽可能简单、详细的介绍了RKNN C++ 应用程序编程接口化处理详细教程。


http://www.kler.cn/a/418627.html

相关文章:

  • 量化交易系统开发-实时行情自动化交易-8.3.开拓者TBQuant平台
  • unique_ptr
  • 7、递归
  • 原子类、AtomicLong、AtomicReference、AtomicIntegerFieldUpdater、LongAdder
  • facebook欧洲户开户条件有哪些又有何优势?
  • Cesium中onTick事件监听器
  • 计算机网络——数据链路层Mac帧详解
  • 良好的并发编程习惯之封闭(Confinement)
  • 缓存的进化历程说说
  • 映射vim键位,基本功能键位表(未更完)
  • 虚拟机docker记录
  • leetcode_2341. 数组能形成多少数对
  • Python 3 教程第22篇(数据结构)
  • 【Python运维】容器管理新手入门:使用Python的docker-py库实现Docker容器管理与监控
  • SOA、分布式、微服务之间的关系和区别?
  • 使用Canal将MySQL数据同步到ES(Linux)
  • node.js中实现MySQL的增量备份
  • 安卓mokey测试学习思路
  • Maya 中创建游戏角色的头发,并将其导出到 Unreal Engine 5
  • 23种设计模式之桥接设计模式
  • Hadoop生态圈框架部署(九)- Hive部署
  • 游戏启动时“msvcr120.dll文件丢失”是什么原因以及解决方案。四种解决办法轻松搞定“msvcr120.dll文件丢失”问题
  • hadoop集群搭建
  • 如何使用Spring Boot进行Web开发?
  • mysql系列2—InnoDB数据存储方式
  • Android内容提供者