当前位置: 首页 > article >正文

vs2019编译opencv+contribute+gpu

1、提前准备

vs2019、opencv4.4.0、opencv-contribute4.4.0、CUDA Toolkit 11.8(不能高于自己电脑的CUDA版本)、CUDNN8.9.6

ps:先提前准备环境

1)cmd中查看:nvidia-smi查看自己的显卡信息,不存在下述信息的话则需先安装英伟达显卡驱动程序。

从下图可知,本机显卡驱动支持的cuda最高版本为12.2,那么只需要安装比12.2低或者相同的CUDA库即可。

需要注意的是,有些高版本的cuda不支持vs2022,比如cuda11.2最高只支持vs2019,而不支持vs2022。

2)安装CUDA及CUDNN

安装完CUDA后将CUDNN内的文件拷贝到CUDA安装文件夹,与文件夹内的合并。

指令:nvcc -V 

在控制台中输入bandwidthTest.exe及deviceQuery.exe的所在目录,如我的:

F:\installfile\NVIDIA GPU Computing Toolkit\CUDA\v11.8\extras\demo_suite

运行该程序:./bandwidthTest.exe及 ./deviceQuery.exe

出现Result = PASS信息表示成功安装CUDA及CUDNN

2、cmake配置编译选项时出现的问题

Policy CMP0148 is not set: The FindPythonInterp and FindPythonLibs modules are removed. Run "cmake --help-policy CMP0148" for policy details.

解决办法:在文件OpenCVUtils.cmake

F:\installfile\opencv4.4.0\opencv+contrib+gpu\sources\cmake\OpenCVUtils.cmake

的第一行添加

if(POLICY CMP0148) 
cmake_policy(SET CMP0148 OLD)
endif()

if(POLICY CMP0146) 
cmake_policy(SET CMP0146 OLD)
endif()

3、若用vs2022编译的话可能会在编译时出现很多报错,因此改为vs2019来配置及编译。

4、配置步骤:

1)打开cmake,输入源码路径及生成工程的路径,后

2)Configure结束后,在search框里搜索并配置一些选项:

  1. 勾选 BUILD_opencv_world(它会将生成的所有库都集中在opencv_world440.lib或opencv_world440d.lib一个包中,而不是分散存放的,便于后续配置工程项目)
  2. 配置 OPENCV_EXTRA_MODULES_PATH,填写contrib源码的modules文件夹的位置,如我的:
    F:\installfile\opencv4.4.0\opencv+contrib+gpu\opencv_contrib-4.4.0\modules
  3. 搜索“cuda”,勾选 BUILD_CUDA_STUBS、OPENCV_DNN_CUDA、WITH_CUDA
  4. 勾选 ENABLE_FAST_MATH 
  5. 勾选 OPENCV_ENABLE_NONFREE
  6. 取消勾选 OpenCV_GENERATE_SETUPVARS
  7. 分别搜索“python”,“java”,“js”,“tests”,分别取消勾选所有已经勾选的python、java、js、tests相关选项

3)点击Configure进行第二次Configure

4)新配置以下

  1. 勾选 CUDA_FAST_MATH
  2. CUDA_ARCH_BIN 填写对应GPU的算力指数,如果已经有了多个值,可以把其他的值删除以加速后续编译,算力指数查询链接:CUDA GPUs - Compute Capability | NVIDIA Developer

5)再次点击Configure,同时检查一下生成信息:

没有报错的话,接着点击Generate生成工程。

6)在自己camke配置的工程目录下,打开生成的工程

  1. 选择Release(或Debug)和x64平台
  2. 右键ALL_BUILD工程,点击  生成
  3. 右键INSTALL工程,点击  仅用于项目   点击     仅生成INSTALL

至此编译结束,编译生成的文件在上述步骤二配置cmake时指定的build文件夹下的install文件夹中。

7)配置vs的opencv工程:常规的添加库目录、包含目录以及附加依赖库,并用以下代码来检验opencv库是否具备CUDA的支持

#include <opencv2/core.hpp>
#include <opencv2/core/cuda.hpp>
#include <iostream>

int main() 
{
    std::cout << "OpenCV version: " << CV_VERSION << std::endl;

    // 检查是否有可用的 CUDA 设备
    if (cv::cuda::getCudaEnabledDeviceCount() > 0) 
    {
        std::cout << "CUDA is enabled and available devices found." << std::endl;
    } 
    else 
    {
        std::cout << "CUDA is not enabled or no CUDA devices found." << std::endl;
    }

    return 0;
}


http://www.kler.cn/a/292552.html

相关文章:

  • STM32 51单片机设计半导体制冷片温控设计
  • 【AutoGen 】简介
  • 量化交易系统开发-实时行情自动化交易-3.4.2.2.Okex交易数据
  • Thread类及常见方法
  • HTTP常见的请求头有哪些?都有什么作用?在 Web 应用中使用这些请求头?
  • Golang | Leetcode Golang题解之第559题N叉树的最大深度
  • 【华为OD】2024D卷——查找众数与中位数
  • MacBook真的不能打游戏吗?Mac打游戏会损坏电脑吗?苹果电脑怎么玩游戏
  • 如何在 Java 中实现线程安全的单例模式?
  • 前端宝典二十七:React Native最佳实践实例推荐
  • 强化网络安全:通过802.1X协议保障远程接入设备安全认证
  • 迭代器 Iterator 是什么?
  • Linux修改docker默认存储目录(/var/lib)
  • Twitter上品牌安全指标的关键显示错误已修正
  • 2024跨境旺季营销:哪个平台是流量之王?
  • Ribbon负载均衡底层原理
  • 配置阿里云千问大模型--环境变量dashscope
  • 基于Openface在ubuntu上抽取人脸图像
  • 02【SQL sever 2005数据库安装教程】
  • python学习第三节:创建第一个python项目
  • Python 数据分析— Numpy 基本操作(下)
  • 【大模型实战篇】大模型周边NLP技术回顾及预训练模型数据预处理过程解析(预告)
  • tkcalendar中的DateEntry
  • CLION+gdbserver远程调试postgresql源码
  • 前端Vue框架,本地数据库nedb
  • python 打包tkinter图标问题