当前位置: 首页 > article >正文

【OpenCV】人脸识别方法

代码已上传GitHub:plumqm/OpenCV-Projects at master

EigenFace、FisherFace、LBPHFace

这三种方法的代码区别不大所以就一段代码示例。

EigenFace与FisherFace

1. 将人脸图像展开为一维向量,组成训练数据集

2. PCA(EigenFace)或LDA(FisherFace)特征分解,得到一组特征向量,代表了训练集中人脸的主要特征,即特征脸

3. 将新的人脸展平为向量,减去训练数据的特征脸(即归一化)

4. 人脸向量与特征向量进行点积,得到在特征空间中的投影坐标

5. 投影得到的新坐标向量与数据库中已存的人脸投影坐标进行比较。通过计算距离(如欧氏距离),找到最相似的匹配,进行身份识别。

EigenFace和FisherFace的主要区别在于它们使用的特征分解方法不同:

        FisherFace对光照、表情、姿态变化更具鲁棒性,因为它专注于区分类别,而不是仅仅关注图像的整体方差。

        PCA只是从全局数据出发,而没有考虑类别之间的区分。这意味着,它虽然对所有人脸都有较好的重建能力,但可能对区分不同个体的表现较差,特别是当光照或姿态变化较大时。

  • EigenFace(PCA)注重最大化数据的方差,它主要捕捉的是图像中的全局特征,不区分类别。
  • FisherFace(LDA)则注重区分不同个体,最大化类间差异,因此在分类问题中通常表现得更好。

LBPH工作原理

LBPH算法通过将人脸图像分成多个小的局部区域,并计算每个区域的局部二值模式(Local Binary Patterns, LBP)直方图来描述这些区域的纹理特征。然后,它将这些局部直方图串联起来形成一个特征向量,这个特征向量就可以用来识别或分类人脸。

具体步骤:

  1. 灰度图转换

    • 首先,LBPH算法需要输入一张灰度图像。因为LBPH主要基于像素的纹理特征,所以不需要彩色信息,直接将人脸图像转换为灰度图即可。
  2. 计算局部二值模式(LBP)

    • 对于每个像素点,LBP算法将以它为中心,比较它与周围8个像素的灰度值。根据灰度值的大小,将大于或等于中心像素的邻近像素标记为1,反之为0,得到一个8位二进制数。这个二进制数就是该像素的局部二值模式值。
    • 例如,假设中心像素值为 50,周围的像素值为 [55, 60, 45, 30, 70, 40, 80, 90],根据规则将大于50的像素标记为1,小于的标记为0,得到的二进制模式可能是11010101,转换为十进制就是213。
  3. 划分区域

    • 将人脸图像分成若干个小的区域(通常是网格状,如10x10的网格),然后对每个区域计算该区域内所有像素的LBP直方图。
  4. 构建特征向量

    • 对于每个区域,LBPH都会计算局部二值模式的直方图,这些直方图包含了该区域内纹理的统计信息。然后,将所有区域的直方图连接起来,形成一个完整的特征向量。
  5. 特征匹配

    • 一旦提取了人脸的特征向量,就可以使用距离度量方法(如欧氏距离、卡方距离等)来比较新的人脸图像与数据库中已知的人脸特征向量。如果两个特征向量的距离足够小,则判定这两张人脸是同一个人。

准备阶段

导入包

import numpy as np
import cv2
import matplotlib.pyplot as plt
import dlib

%matplotlib inline

读取gif格式

读取gif格式的文件,通过调用cv2的VideoCapture方法

# 读取gif格式

img_path = './images/yalefaces/subject01.gif'
cap = cv2.VideoCapture(img_path)
ret,img = cap.read()
plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

Hog人脸检测器

#构造hog人脸检测器
hog_face_detector = dlib.get_frontal_face_detector()

图片预处理

用hog检测器检测出人脸部分,返回截取的人脸部分和标签

# 图片预处理
def getFaceImgLabel(filename):
    cap = cv2.VideoCapture(filename)
    ret,img = cap.read()

    # 转灰度图
    img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    # 检测人脸
    detections = hog_face_detector(img, 1)

    if len(detections) > 0:
        # 获取人脸区域坐标
        x = detections[0].left()
        y = detections[0].top()
        r = detections[0].right()
        b = detections[0].bottom()

        # 截取人脸
        img_crop = img[y:b,x:r]

        img_crop = cv2.resize(img_crop,(120,120))
        
        # 获取人脸label
        label_id = int(filename.split('/')[-1].split('.')[0].split('subject')[-1])

        return img_crop, label_id
    else :
        return None, -1
    
# img,label = getFaceImgLabel(img_path)
# plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

处理训练集

把训练集即train文件夹下的内容存入img_list,标签存入label_list,以便后面train函数直接训练


# 遍历训练文件夹
import glob
file_list = glob.glob('./images/yalefaces/*.gif')

img_list =[]
label_list = []

for file in file_list:
    img_crop, label_id = getFaceImgLabel(file)
    
    if img_crop is not None:
        img_list.append(img_crop)
        label_list.append(label_id)

# print(len(img_list),len(label_list))

构造分类器

这个就包含三种方法,EigenFace、FisherFace、LBPHFace。

后面两种方法要求输入的图片大小一致,但是第一种没有要求,我们的代码就统一resize了。

# 构造分类器
face_cls = cv2.face.LBPHFaceRecognizer_create()
# cv2.face.EigenFaceRecognizer_create()
# cv2.face.FisherFaceRecognizer_create()

# 后面两个方法要求人脸大小一致

训练

# 训练
face_cls.train(img_list, np.array(label_list))

试验图片 

# 预测图片
test_file = './images/test/subject06.sad.gif'

img_crop, label_id = getFaceImgLabel(test_file)

plt.imshow(cv2.cvtColor(img_crop,cv2.COLOR_BGR2RGB))  # 显示图片
# plt.imshow(img_crop)    
if img_crop is not None:
    predict_id,distance = face_cls.predict(img_crop)
    print(predict_id)

评估模型

其实也就是在试验单张图片的基础上通过大量测试集来评估模型好坏。

# 评估模型

import glob
file_list = glob.glob('./images/test/*.gif')

true_list = []
predict_list = []

for file in file_list:
    img_crop, label_id = getFaceImgLabel(file)
    
    if img_crop is not None:
        predict_id,distance = face_cls.predict(img_crop)
        predict_list.append(predict_id)
        true_list.append(label_id)

print(predict_list)
print(true_list)

查看准确率

# 查看准确率
from sklearn.metrics import accuracy_score 
accuracy_score(true_list,predict_list)

结果可视化

# 获取融合矩阵
from sklearn.metrics import confusion_matrix 
cm = confusion_matrix(true_list,predict_list)
cm

# 可视化
import seaborn
seaborn.heatmap(cm,annot=True)

热力图:

(因为我没找到好的测试集,test文件夹就直接放的训练集的图片,所以结果怪怪的)

保存模型

# 保存模型
path = './weights/LBPG.yml'
face_cls.save(path)

# 调用模型
new_cls = cv2.face.LBPHFaceRecognizer_create()
new_cls.read(path)

# 预测一张图片
test_file = './images/test/subject06.sad.gif'

img_crop, label_id = getFaceImgLabel(test_file)

# plt.imshow(cv2.cvtColor(img_crop,cv2.COLOR_BGR2RGB))  # 显示图片
# plt.imshow(img_crop)    
if img_crop is not None:
    predict_id,distance = new_cls.predict(img_crop)
    print(predict_id)

Residual Network

导入包

import numpy as np
import cv2
import matplotlib.pyplot as plt
import dlib

# %matplotlib inline
plt.rcParams['figure.dpi'] = 200

提取关键点

# 获取人脸68个关键点
hog_face_detector = dlib.get_frontal_face_detector()
# 关键点检测模型
shape_detector = dlib.shape_predictor('./weights/shape_predictor_68_face_landmarks.dat')
# 读取1张测试图片
img = cv2.imread('./images/others/Walid_Al-Awadi/Walid_Al-Awadi_0001.jpg')
# plt.imshow(img)
# 检测人脸
detections = hog_face_detector(img,1)

for face in detections:
    l,t,r,b = face.left(),face.top(),face.right(),face.bottom()

    # 获取68个关键点
    points = shape_detector(img,face)
    # 绘制关键点
    for point in points.parts():
        cv2.circle(img,(point.x,point.y),2,(0,255,0),1)
    # 绘制矩形框
    cv2.rectangle(img,(l,t),(r,b),(255,0,0),2)

plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

导入Resent模型

# resent模型
face_descriptor_extractor = dlib.face_recognition_model_v1('./weights/dlib_face_recognition_resnet_model_v1.dat')

提取单张图片的特征描述符和label

通过face_descriptor_extractor.compute_face_descriptor计算特征描述符

# 提取单张图片的特征描述符label
def getFaceFeatLabel(filename):
    label_id = int(filename.split('/')[-1].split('.')[0].split('subject')[-1])

    # 读取图片
    cap = cv2.VideoCapture(filename)
    ret,img = cap.read()

    img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)

    # 检测人脸
    detections = hog_face_detector(img, 1)

    face_decriptor = None
    for face in detections:
        # 获取关键点
        points = shape_detector(img,face)
        # 获取特征描述符
        face_decriptor = face_descriptor_extractor.compute_face_descriptor(img,points)
        # 转为numpy格式数组
        face_decriptor = [f for f in face_decriptor]
        face_decriptor = np.asarray(face_decriptor,dtype=np.float64)
        face_decriptor = np.reshape(face_decriptor,(1,-1))
        
    return label_id,face_decriptor
# img,label = getFaceImgLabel(img_path)
# plt.imshow(cv2.cvtColor(img,cv2.COLOR_BGR2RGB))

id1,fd1 = getFaceFeatLabel('./images/test/subject06.sad.gif')
fd1.shape

训练

# 遍历训练文件夹
import glob
file_list = glob.glob('./images/yalefaces/*.gif')
file_list = [file.replace('\\', '/') for file in file_list]

label_list = []
feature_list = None

name_list = {}
index = 0
for file in file_list:
    label, feature = getFaceFeatLabel(file)
    
    if feature is not None:
        # 文件名列表
        name_list[index] = file
        # label列表
        label_list.append(label)
        index += 1

        if feature_list is None:
            feature_list = feature
        else:    
            # 特征列表
            feature_list = np.concatenate((feature_list ,feature),axis=0)
            # feature_list = np.concatenate((feature_list, feature.reshape(1, -1)), axis=0)

# print(len(img_list),len(label_list))
print(name_list)

评估模型

距离的计算

# 计算距离
np.linalg.norm((feature_list[20]-feature_list[100]))

# 计算某个特征描述符与所有特征描述符的距离
np.linalg.norm((feature_list[100]-feature_list),axis=1)

# 寻找最小值索引

min_index = np.argmin(np.linalg.norm((feature_list[0]-feature_list[1:]),axis=1))
min_index

模型评估

# 评估模型

import glob
file_list = glob.glob('./images/test/*.gif')
file_list = [file.replace('\\', '/') for file in file_list]

label_list = []
predict_list = []

# 距离阈值
threshold = 0.5

for file in file_list:
    label, feat = getFaceFeatLabel(file)
    
    cap = cv2.VideoCapture(file)
    ret,img = cap.read()

    img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)


    if feat is not None:
        # 计算距离
        distances = np.linalg.norm((feat-feature_list),axis=1)
        # 找最短距离
        min_index = np.argmin(distances)
        min_distance = distances[min_index]

        if min_distance < threshold:
            # 同一个人
            predict_id = int(name_list[min_index].split('/')[-1].split('.')[0].split('subject')[-1])
        else:
            predict_id = -1
    
        predict_list.append(predict_id)
        label_list.append(label)

        cv2.putText(img,'True:'+str(label),(10,30),cv2.FONT_HERSHEY_COMPLEX_SMALL,1,(0,255,0))
        cv2.putText(img,'Pred:'+str(predict_id),(10,50),cv2.FONT_HERSHEY_COMPLEX_SMALL,1,(0,255,0))
        cv2.putText(img,'Dist:'+str(min_distance),(10,70),cv2.FONT_HERSHEY_COMPLEX_SMALL,1,(0,255,0))
        plt.figure()
        plt.imshow(img)

print(len(label_list))
print(len(predict_list))

准确率

# 公式评估
from sklearn.metrics import accuracy_score
accuracy_score(label_list,predict_list)


http://www.kler.cn/news/359863.html

相关文章:

  • 32.第二阶段x86游戏实战2-遍历技能2(技能二叉树基址)
  • WPF中的<Style.Triggers>
  • 项目管理软件真的能让敏捷开发变得更简单吗?
  • 【2024CANN训练营第二季】使用华为云体验AscendC_Sample仓算子运行
  • 【华为HCIP实战课程十六】OSPF虚链路Vlink,网络工程师
  • 代码随想录算法训练营第三十一天|56. 合并区间、738.单调递增的数字
  • Typora的使用方法(个人学习笔记)
  • 03 springboot-国际化
  • Lambda架构保持批处理和实时处理之间的数据一致性
  • Vite:功能
  • 基于webpack的react多页面项目框架
  • PHP echo、print_r、print、var_dump之间的区别
  • Qt 窗口悬停事件和鼠标跟踪
  • 云电脑使用教程标准版
  • 基于Java微信小程序的水果销售系统详细设计和实现(源码+lw+部署文档+讲解等)
  • 《汇编语言》笔记一 寄存器
  • 软件I2C的代码
  • PROFIENT开发和Ethernet IP开发—嵌入式板卡:赋予通讯设备之间的神奇力量
  • 机器学习与深度学习1:神经网络概念
  • 高级java每日一道面试题-2024年10月19日-消息队列[RabbitMQ]-RabbitMQ中积压了大量的消息,如何处理?