当前位置: 首页 > article >正文

毕设开源 基于机器视觉的人体姿态行为识别

文章目录

  • 0 简介
  • **1、人体姿态估计简介**
  • 2、人体姿态估计数据集
  • 4、实现原理
  • 5、实现神经网络
  • 6 部分关键代码
  • 7 最后

0 简介

今天学长向大家分享一个毕业设计项目

毕业设计 基于机器视觉的人体姿态行为识别

项目运行效果:

毕业设计 深度学习人体姿势姿态识别

🧿 项目分享:见文末!

1、人体姿态估计简介

人体姿态估计(Human Posture Estimation),是通过将图片中已检测到的人体关键点正确的联系起来,从而估计人体姿态。

人体关键点通常对应人体上有一定自由度的关节,比如颈、肩、肘、腕、腰、膝、踝等,如下图。

通过对人体关键点在三维空间相对位置的计算,来估计人体当前的姿态。

进一步,增加时间序列,看一段时间范围内人体关键点的位置变化,可以更加准确的检测姿态,估计目标未来时刻姿态,以及做更抽象的人体行为分析,例如判断一个人是否在打电话等。

人体姿态检测的挑战:

1. 每张图片中包含的人的数量是未知的。
2. 人与人之间的相互作用是非常复杂的,比如接触、遮挡等,这使得联合各个肢体,即确定一个人有哪些部分变得困难。
3. 图像中人越多,计算复杂度越大(计算量与人的数量正相关),这使得实时检测变得困难。

2、人体姿态估计数据集

由于缺乏高质量的数据集,在人体姿势估计方面进展缓慢。在近几年中,一些具有挑战性的数据集已经发布,这使得研究人员进行研发工作。人体姿态估计常用数据集:

  • COCO Keypoints challenge
  • MPII Human Pose Dataset
  • VGG Pose Dataset
  • CMU Panoptic Dataset(本案例所用数据集)

人体姿态估计技术在体育健身、动作采集、3D试衣、舆情监测等领域具有广阔的应用前景,人们更加熟悉的应用就是抖音尬舞机。

4、实现原理

    1. 输入一幅图像,经过卷积网络提取特征,得到一组特征图,然后分成两个岔路,分别使用 CNN网络提取Part Confidence Maps 和 Part Affinity Fields;
    1. 得到这两个信息后,我们使用图论中的 Bipartite Matching(偶匹配) 求出Part Association,将同一个人的关节点连接起来,由于PAF自身的矢量性,使得生成的偶匹配很正确,最终合并为一个人的整体骨架;
    1. 最后基于PAFs求Multi-Person Parsing—>把Multi-person parsing问题转换成graphs问题—>[Hungarian Algorithm(匈牙利算法)]

(匈牙利算法是部图匹配最常见的算法,该算法的核心就是寻找增广路径,它是一种用增广路径求二分图最大匹配的算法。)

5、实现神经网络

阶段一:VGGNet的前10层用于为输入图像创建特征映射。

阶段二:使用2分支多阶段CNN,其中第一分支预测身体部位位置(例如肘部,膝部等)的一组2D置信度图(S)。 如下图

![](https://img-blog.csdnimg.cn/20190421232819272.png?x-oss-
process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzM4MTA2OTIz,size_16,color_FFFFFF,t_70)

第二分支预测一组部分亲和度的2D矢量场(L),其编码部分之间的关联度。 如下图所示,显示颈部和左肩之间的部分亲和力。

![](https://img-blog.csdnimg.cn/20190421232935425.png?x-oss-
process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzM4MTA2OTIz,size_16,color_FFFFFF,t_70)

阶段三: 通过贪心推理解析置信度和亲和力图,对图像中的所有人生成2D关键点。

6 部分关键代码

POSE_PAIRS = [ ["Neck", "RShoulder"], ["Neck", "LShoulder"], ["RShoulder", "RElbow"],
               ["RElbow", "RWrist"], ["LShoulder", "LElbow"], ["LElbow", "LWrist"],
               ["Neck", "RHip"], ["RHip", "RKnee"], ["RKnee", "RAnkle"], ["Neck", "LHip"],
               ["LHip", "LKnee"], ["LKnee", "LAnkle"], ["Neck", "Nose"], ["Nose", "REye"],
               ["REye", "REar"], ["Nose", "LEye"], ["LEye", "LEar"] ]

inWidth = args.width
inHeight = args.height

net = cv.dnn.readNetFromTensorflow("graph_opt.pb")

cap = cv.VideoCapture(args.input if args.input else 0)

while cv.waitKey(1) < 0:
    hasFrame, frame = cap.read()
    if not hasFrame:
        cv.waitKey()
        break

    frameWidth = frame.shape[1]
    frameHeight = frame.shape[0]
    
    net.setInput(cv.dnn.blobFromImage(frame, 1.0, (inWidth, inHeight), (127.5, 127.5, 127.5), swapRB=True, crop=False))
    out = net.forward()
    out = out[:, :19, :, :]  # MobileNet output [1, 57, -1, -1], we only need the first 19 elements

    assert(len(BODY_PARTS) == out.shape[1])

    points = []
    for i in range(len(BODY_PARTS)):
        # Slice heatmap of corresponging body's part.
        heatMap = out[0, i, :, :]

        # Originally, we try to find all the local maximums. To simplify a sample
        # we just find a global one. However only a single pose at the same time
        # could be detected this way.
        _, conf, _, point = cv.minMaxLoc(heatMap)
        x = (frameWidth * point[0]) / out.shape[3]
        y = (frameHeight * point[1]) / out.shape[2]
        # Add a point if it's confidence is higher than threshold.
        points.append((int(x), int(y)) if conf > args.thr else None)

    for pair in POSE_PAIRS:
        partFrom = pair[0]
        partTo = pair[1]
        assert(partFrom in BODY_PARTS)
        assert(partTo in BODY_PARTS)

        idFrom = BODY_PARTS[partFrom]
        idTo = BODY_PARTS[partTo]

        if points[idFrom] and points[idTo]:
            cv.line(frame, points[idFrom], points[idTo], (0, 255, 0), 3)
            cv.ellipse(frame, points[idFrom], (3, 3), 0, 0, 360, (0, 0, 255), cv.FILLED)
            cv.ellipse(frame, points[idTo], (3, 3), 0, 0, 360, (0, 0, 255), cv.FILLED)

7 最后

项目运行效果:

毕业设计 深度学习人体姿势姿态识别

🧿 项目分享:见文末!


http://www.kler.cn/news/342544.html

相关文章:

  • 【RISCV指令集手册】向量扩展v1.0
  • 小猿口算APP脚本(协议版)
  • 【D3.js in Action 3 精译_030】3.5 给 D3 条形图加注图表标签(下):Krisztina Szűcs 人物专访 + 3.6 本章小结
  • 其他:python语言绘制案例
  • 【图论】(一)图论理论基础与岛屿问题
  • 电视机/显示器参数1400nits 97% DCI-P3、ΔE<0.87和2400nits 110% DCI-P3、ΔE<0.6详解
  • 数据结构【C语言】[
  • C# + SQLiteExpert 进行(cipher)加密数据库开发+Costura.Fody 清爽发布
  • 番外篇 | CRAS-YOLO:基于卫星图像的多类别船舶检测和分类
  • 【分布式微服务云原生】Redis:如何实现高性能与高可用性的终极指南
  • 【华为HCIP实战课程十】OSPF网络DR和BDR实战讲解,网络工程师
  • 小北的技术博客:探索华为昇腾CANN训练营与AI技术创新——Ascend C算子开发能力认证考试(中级)
  • 设计模式之适配器模式(通俗易懂--代码辅助理解【Java版】)
  • windows启微服务端口被占用情况的排查与解决方法
  • 【uniapp】使用uniapp实现一个输入英文单词翻译组件
  • 【Linux】ComfyUI和SD WebUI之PYTHON环境共享,模型共享,LORA等公共资源共享
  • 实用Linux脚本
  • 【论文阅读】Cross Attention Network for Few-shot Classification
  • Golang | Leetcode Golang题解之第464题我能赢吗
  • c#中多态的实例应用说明