当前位置: 首页 > article >正文

使用OpenCV实现图像拼接

摘要

图像拼接技术在计算机视觉领域有着广泛的应用,如全景图生成、卫星影像拼接等。本文将详细介绍如何使用OpenCV库实现图像拼接,包括特征点检测、描述符提取、特征匹配、透视变换等关键步骤。通过一个实际的代码示例,我们将逐步展示如何将两张图片拼接成一张全景图。

1. 引言

图像拼接的基本思想是从多张图片中提取特征点,并通过匹配这些特征点来估计图像之间的几何变换关系,最终将这些图像合成一张全景图。OpenCV 提供了丰富的工具和算法来支持这一过程,包括 SIFT 特征检测、BFMatcher 特征匹配以及透视变换等。

2. 环境准备

在开始之前,请确保已经安装了 OpenCV 库。如果没有安装,可以通过以下命令安装:

pip install opencv-python
pip install opencv-contrib-python
3. 代码实现
3.1 导入必要的库
import cv2
import numpy as np
import sys
3.2 定义辅助函数

为了方便显示图像,定义一个简单的显示函数 cv_show

def cv_show(name, img):
    cv2.imshow(name, img)
    cv2.waitKey(0)
3.3 特征点检测与描述符提取

定义一个函数 detectAndDescribe,用于检测图像中的特征点并计算描述符:

def detectAndDescribe(image):
    gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)   # 将彩色图像转换成灰度图
    descriptor = cv2.SIFT_create()   # 建立SIFT生成器
    (kps, des) = descriptor.detectAndCompute(gray, None)  # 检测SIFT特征点,并计算描述符
    kps_float = np.float32([kp.pt for kp in kps])  # 将结果转换成NumPy数组
    return (kps, kps_float, des)   # 返回特征点集,及对应的描述特征
3.4 读取并显示图像

读取两张待拼接的图像,并显示它们:

imageA = cv2.imread(r'picture_video\1.jpg')
cv_show('imageA', imageA)
imageB = cv2.imread(r'picture_video\2.jpg')
cv_show('imageB', imageB)
3.5 计算图像特征点及描述符

对两张图像分别进行特征点检测和描述符提取:

(kpsA, kps_floatA, desA) = detectAndDescribe(imageA)
(kpsB, kps_floatB, desB) = detectAndDescribe(imageB)
3.6 特征匹配

使用 BFMatcher 进行特征匹配,筛选出高质量的匹配对:

matcher = cv2.BFMatcher()
rawMatches = matcher.knnMatch(desB, desA, 2)
good = []
matches = []

for m in rawMatches:
    if len(m) == 2 and m[0].distance < 0.65 * m[1].distance:
        good.append(m)
        matches.append((m[0].trainIdx, m[0].queryIdx))

print(f"Number of good matches: {len(good)}")
print(f"Matches: {matches}")
3.7 绘制匹配结果

将匹配结果可视化,以便观察匹配效果:

vis = cv2.drawMatchesKnn(imageB, kpsB, imageA, kpsA, good, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
cv_show('keypoint matches', vis)
3.8 透视变换

如果匹配对的数量大于4,计算透视变换矩阵并进行图像拼接:

if len(matches) > 4:
    ptsA = np.float32([kps_floatA[i] for (i, _) in matches])
    ptsB = np.float32([kps_floatB[i] for (_, i) in matches])
    (H, mask) = cv2.findHomography(ptsB, ptsA, cv2.RANSAC, 10)
    
    result = cv2.warpPerspective(imageB, H, (imageB.shape[1] + imageA.shape[1], imageB.shape[0]))
    cv_show('resultB', result)
    
    result[0:imageA.shape[0], 0:imageA.shape[1]] = imageA
    cv_show('result', result)
else:
    print('图片未找到4个以上的匹配点')
    sys.exit()
4. 结果展示

通过上述步骤,我们可以成功地将两张图像拼接成一张全景图。最终的拼接结果如下所示:

5. 总结

本文详细介绍了如何使用 OpenCV 实现图像拼接,包括特征点检测、描述符提取、特征匹配、透视变换等关键步骤。通过一个实际的代码示例,展示了如何将两张图像拼接成一张全景图。希望本文能为读者在计算机视觉领域的学习和研究提供帮助。


http://www.kler.cn/a/412368.html

相关文章:

  • 【Petri网导论学习笔记】Petri网导论入门学习(十) —— 3.2 关联矩阵与状态方程
  • 15分钟做完一个小程序,腾讯这个工具有点东西
  • 【山大909算法题】2014-T1
  • Springboot启动报错’javax.management.MBeanServer’ that could not be found.
  • 【8210A-TX2】Ubuntu18.04 + ROS_ Melodic + TM-16多线激光 雷达评测
  • python里的数据结构
  • 【C++第三方库】Muduo库结合ProtoBuf库搭建服务端和客户端的过程和源码
  • 【JavaEE初阶 — 网络编程】Socket 套接字 & UDP数据报套接字编程
  • Linux 虚拟机下安装RedisJSON
  • 【Pytorch框架】无中生有,从0到1使用Dataset类处理MNIST数据集
  • 多线程1:基础概念、接口介绍、锁
  • 通俗理解人工智能、机器学习和深度学习的关系
  • 【carla生成车辆时遇到的问题】carla显示的坐标和carlaworld中提取的坐标y值相反
  • 前后端中Json数据的简单处理
  • Javaweb 前端 HTML css 案例 总结
  • 开发一个基于MACOS M1/2芯片的Android 12的模拟器
  • 基于STM32的智能风扇控制系统
  • digit_eye开发记录(2): Python读取MNIST数据集
  • 渗透测试笔记—window基础
  • 蓝桥杯每日真题 - 第24天
  • 27加餐篇:gRPC框架的优势与不足之处
  • Apache Zeppelin:一个基于Web的大数据可视化分析平台
  • 前端 设置 div 标签内子多个子 div 内容,在一行展示,并且可以字段自动换行
  • Flink 实现超速监控:从 Kafka 读取卡口数据写入 MySQL
  • 浏览器开发工具
  • java——SpringBoot中常用注解及其底层原理