当前位置: 首页 > article >正文

基于yolov8、yolov5的行人检测系统(含UI界面、训练好的模型、Python代码、数据集)

在这里插入图片描述

项目介绍

项目中所用到的算法模型和数据集等信息如下:

算法模型:
    yolov8yolov8 + SE注意力机制yolov5yolov5 + SE注意力机制直接提供最少两个训练好的模型。模型十分重要,因为有些同学的电脑没有 GPU,无法自行训练。

数据集:
    网上下载的数据集,格式都已转好,可直接使用。

界面:
    PyQt5

以上是本篇博客的简单说明,添加注意力机制可作为模型的创新点

在这里插入图片描述


摘要行人检测对于智能交通系统、自动驾驶以及城市公共安全保障具有至关重要的作用。本文介绍了一款基于YOLOv8深度学习框架行人检测模型,该模型使用了**1800张图片进行训练,能够识别多种环境下的行人,包括城市街道、校园区域、商场内部等。此外,我们开发了一款带有UI界面的行人检测系统,支持实时检测不同场景下的行人,并能更直观地展示检测结果。该系统采用Python与PyQT5开发,能够对图片、视频及摄像头输入进行目标检测,同时支持检测结果的保存。本文还附带了完整的Python代码和使用指南,供有兴趣的读者学习参考,获取完整的代码资源请参见文章末尾。

前言

    行人检测在智能交通管理、自动驾驶系统以及城市公共安全方面起着关键作用。在交通监控与智能驾驶领域,及时且精确地检测出行人,有助于避免交通事故的发生,提升行车安全性,并为城市管理部门提供人流数据分析支持。此外,行人检测还能帮助相关部门提升道路安全,提高管理效率,减少意外事故造成的经济损失。

    行人检测在多个领域中得到了广泛应用,如智能交通系统、自动驾驶、城市监控、商场客流分析等场景中,都扮演着重要角色。在智能交通系统中,一个自动化的行人检测系统能够实现实时监控,及时识别道路上出现的行人,从而避免交通事故的发生,提高道路通行效率,保障公共道路的安全性

    在现代城市管理中,行人检测系统还可以与其他智能监控系统协同工作,比如与交通管理系统整合,以提供实时的人流数据,推动智慧城市建设和城市规划的进一步发展。在后续管理与数据分析阶段,系统能够帮助快速分析特定区域的行人流量,为城市交通优化提供数据支持,确保行人安全和公共资源的合理调配。

    通过收集与行人相关的数据和图像,博主利用YOLO目标检测技术,结合Python与PyQt5,开发出了一款界面简洁的行人检测系统,该系统支持图片、视频及摄像头检测,并能够保存检测结果。

目录

  • 项目介绍
  • 前言
  • 功能展示:
  • 🌟 一、环境安装
  • 🌟 二、数据集介绍
  • 🌟 三、深度学习算法介绍
    • 1. yolov8相关介绍
    • 2. yolov5相关介绍
  • 🌟 四、模型训练步骤
  • 🌟 五、模型评估步骤
  • 🌟 六、训练结果
  • 结束语 🌟 🌟🌟🌟
  • 参考文献:

功能展示:

部分核心功能如下:

  • 功能1: 支持单张图片识别
  • 功能2: 支持遍历文件夹识别
  • 功能3: 支持识别视频文件
  • 功能4: 支持摄像头识别
  • 功能5: 支持结果文件导出(xls格式)
  • 功能6: 支持切换检测到的目标查看

更多的其他功能可以通过下方视频演示查看。

基于深度学习的行人检测识别系统(yolov8)


🌟 一、环境安装

文档中有详细的环境安装指南,包括 Python、PyCharm、CUDA、Torch 等库的安装步骤,所有版本均已适配。你可以根据文档或视频教程一步步完成安装。

经过三年多的经验积累,我整理了在帮助他人安装环境过程中常见的问题和解决方法,并汇总到这份文档中。无论你是使用 GPU 版还是 CPU 版,都能找到相关的安装细节和说明。文档会定期更新,以确保最新的环境配置和优化,供大家参考。

文档截图如下:

在这里插入图片描述


🌟 二、数据集介绍

提供全面、结构化的数据集,它不仅包含了丰富的类别,而且已经细致地划分为训练集、验证集和测试集,以满足不同阶段的模型训练需求。而且数据集的格式,可直接支持YOLO训练,无需额外的格式转换工作。

数据样式如下:

在这里插入图片描述


🌟 三、深度学习算法介绍

1. yolov8相关介绍

YOLOv8 是一个SOTA(State-Of-The-Art)模型,建立在以往 YOLO 版本的成功基础上,引入了许多新的功能和改进,以进一步提升性能和灵活性。具体创新包括:全新的骨干网络Anchor-Free 检测头以及新型损失函数,这些改进使得 YOLOv8 能够在从CPUGPU的各种硬件平台上高效运行。

然而,ultralytics 并没有直接将开源库命名为YOLOv8,而是使用了ultralytics这个名称。原因在于ultralytics将这个库定位为算法框架,而非某一个特定算法。一个主要特点是可扩展性。该库的目标是不仅能够支持 YOLO 系列模型,还能够支持非 YOLO 模型以及分类、分割、姿态估计等各类任务

总而言之,ultralytics 开源库的两个主要优点是:

  • 融合众多当前 SOTA 技术于一体

  • 未来将支持其他 YOLO 系列以及 YOLO 之外的更多算法

在这里插入图片描述

网络结构如下:
在这里插入图片描述

2. yolov5相关介绍

YOLOV5有YOLOv5n,YOLOv5s,YOLOv5m,YOLOV5l、YOLO5x五个版本。这个模型的结构基本一样,不同的是deth_multiole模型深度和width_multiole模型宽度这两个参数。就和我们买衣服的尺码大小排序一样,YOLOV5n网络是YOLOV5系列中深度最小,特征图的宽度最小的网络。其他的三种都是在此基础上不断加深,不断加宽。不过最常用的一般都是yolov5s模型。
在这里插入图片描述

  本系统采用了基于深度学习的目标检测算法YOLOv5,该算法是YOLO系列算法的较新版本,相比于YOLOv3和YOLOv4,YOLOv5在检测精度和速度上都有很大的提升。YOLOv5算法的核心思想是将目标检测问题转化为一个回归问题。此外,YOLOv5还引入了一种称为SPP(Spatial Pyramid Pooling)的特征提取方法,这种方法可以在不增加计算量的情况下,有效地提取多尺度特征,提高检测性能。

  在YOLOv5中,首先将输入图像通过骨干网络进行特征提取,得到一系列特征图。然后,通过对这些特征图进行处理,将其转化为一组检测框和相应的类别概率分数,即每个检测框所属的物体类别以及该物体的置信度。YOLOv5中的特征提取网络使用CSPNet(Cross Stage Partial Network)结构,它将输入特征图分为两部分,一部分通过一系列卷积层进行处理,另一部分直接进行下采样,最后将这两部分特征图进行融合。这种设计使得网络具有更强的非线性表达能力,可以更好地处理目标检测任务中的复杂背景和多样化物体。

在这里插入图片描述

  在YOLOv5中,每个检测框由其左上角坐标(x,y)、宽度(w)、高度(h)和置信度(confidence)组成。同时,每个检测框还会预测C个类别的概率得分,即分类得分(ci),每个类别的得分之和等于1。因此,每个检测框最终被表示为一个(C+5)维的向量。在训练阶段,YOLOv5使用交叉熵损失函数来优化模型。损失函数由定位损失、置信度损失和分类损失三部分组成,其中定位损失和置信度损失采用了Focal Loss和IoU Loss等优化方法,能够有效地缓解正负样本不平衡和目标尺寸变化等问题。

  YOLOv5网络结构是由Input、Backbone、Neck、Prediction组成。Yolov5的Input部分是网络的输入端,采用Mosaic数据增强方式,对输入数据随机裁剪,然后进行拼接。Backbone是Yolov5提取特征的网络部分,特征提取能力直接影响整个网络性能。YOLOv5的Backbone相比于之前Yolov4提出了新的Focus结构。Focus结构是将图片进行切片操作,将W(宽)、H(高)信息转移到了通道空间中,使得在没有丢失任何信息的情况下,进行了2倍下采样操作。


🌟 四、模型训练步骤

  1. 使用pycharm打开代码,找到train.py打开,示例截图如下:
    在这里插入图片描述

  2. 修改 model_yaml 的值,以符合实际情况。如果你打算训练 YOLOv8s 模型,请将其修改为 model_yaml = yaml_yolov8s。如果你想训练添加 SE注意力机制 的模型,请将其修改为 model_yaml = yaml_yolov8_SE

  3. 修改 data_path 的数据集路径。这里默认指定的是 traindata.yaml 文件。如果你使用的是我提供的数据,可以不用修改。

  4. 修改 model.train() 中的参数,根据自己的需求和电脑硬件的情况进行调整。

    # 文档中对参数有详细的说明
    model.train(data=data_path,             # 数据集
                imgsz=640,                  # 训练图片大小
                epochs=200,                 # 训练的轮次
                batch=2,                    # 训练batch
                workers=0,                  # 加载数据线程数
                device='0',                 # 使用显卡
                optimizer='SGD',            # 优化器
                project='runs/train',       # 模型保存路径
                name=name,                  # 模型保存命名
                )
    
  5. 修改traindata.yaml文件, 打开 traindata.yaml 文件,如下所示:
    在这里插入图片描述
    在这里,只需修改 path 的值,其他的都不用改动(仔细看上面的黄色字体),我提供的数据集默认都是到 yolo 文件夹,设置到 yolo 这一级即可,修改完后,返回 train.py 中,执行train.py

  6. 打开 train.py ,右键执行。
    在这里插入图片描述

  7. 出现如下类似的界面代表开始训练了
    在这里插入图片描述

  8. 训练完后的模型保存在runs/train文件夹下
    在这里插入图片描述


🌟 五、模型评估步骤

  1. 打开val.py文件,如下图所示:
    在这里插入图片描述

  2. 修改 model_pt 的值,是自己想要评估的模型路径

  3. 修改 data_path ,根据自己的实际情况修改,具体如何修改,查看上方模型训练中的修改步骤

  4. 修改 model.val()中的参数,按照自己的需求和电脑硬件的情况更改

    model.val(data=data_path,           # 数据集路径
              imgsz=300,                # 图片大小,要和训练时一样
              batch=4,                  # batch
              workers=0,                # 加载数据线程数
              conf=0.001,               # 设置检测的最小置信度阈值。置信度低于此阈值的检测将被丢弃。
              iou=0.6,                  # 设置非最大抑制 (NMS) 的交叉重叠 (IoU) 阈值。有助于减少重复检测。
              device='0',               # 使用显卡
              project='runs/val',       # 保存路径
              name='exp',               # 保存命名
              )
    
  5. 修改完后,即可执行程序,出现如下截图,代表成功(下图是示例,具体以自己的实际项目为准。)
    在这里插入图片描述

  6. 评估后的文件全部保存在在 runs/val/exp... 文件夹下
    在这里插入图片描述


🌟 六、训练结果

我们每次训练后,会在 run/train 文件夹下出现一系列的文件,如下图所示:
在这里插入图片描述
   如果大家对于上面生成的这些内容(confusion_matrix.png、results.png等)不清楚是什么意思,可以在我的文档中查看这些指标的具体含义,示例截图如下:

在这里插入图片描述


结束语 🌟 🌟🌟🌟

   下面图片是对每个文件夹作用的介绍:(纯粹是秀一秀 俺的 代码结构是否清晰, 注释是否详细,如果大家觉得有更好的方法,可以下方留言,一定再精进一下。)

在这里插入图片描述

其实用yolo算法做系统非常的简单,但是博客文字有限,如果有介绍不明白的地方,也可以看一下下面的视频,也许会更容易理解,对大家做项目有帮助。

视频就是记录自己如何进行环境安装、以及如何进行模型训练和模型评估的, 具体视频列表可以看下方图片箭头位置。当然如果自己不做这个项目,做其他的也可以参考一下,毕竟方法都是通用的。
在这里插入图片描述

演示与介绍视频: 【基于深度学习的行人检测识别系统(yolov8)】

演示与介绍视频: 【基于深度学习的行人检测识别系统(yolov5)】

由于博主的能力有限,博文中提及的方法虽然经过试验,但难免会存在一些疏漏之处。为了不断提高内容的质量和准确性,希望您能够热心指出这些错误。这不仅有助于我在下次修改时呈现得更加完善和严谨,也能使其他读者受益。您的反馈对我来说非常重要,能够帮助我进一步完善相关内容。

此外,如果您有更好的实现方法或独到的见解,也非常欢迎您分享。这将为大家提供更多的思路和选择,促进我们共同进步。期待您的宝贵建议与经验交流,谢谢您的支持!

参考文献:

  1. Zhang, Y., Li, J., & Wang, X. (2018). A review of steel surface defect detection technologies. Journal of Materials Processing Technology, 255, 124-134.

  2. Liu, H., Xu, Y., & Chen, G. (2020). Deep learning for steel defect detection based on convolutional neural networks. Automation in Construction, 110, 103029.

  3. Wang, S., Zhang, H., & Li, F. (2021). Real-time detection of surface defects in hot-rolled steel using YOLOv4. Sensors, 21(3), 734.

  4. Chen, L., Zhang, Y., & Liu, Y. (2022). An effective method for detecting steel surface defects using image processing and machine learning. Materials Today Communications, 28, 102649.

  5. Gao, J., Li, C., & Zhao, S. (2023). Application of computer vision in steel defect detection: A review. International Journal of Advanced Manufacturing Technology, 124, 2001-2013.


http://www.kler.cn/news/357793.html

相关文章:

  • 理解JVM
  • Leetcode—1279. 红绿灯路口【简单】Plus(多线程)
  • redis的发布订阅模式
  • vue3缓存菜单
  • Python从0到100(六十四):Python OpenCV-图像运算进阶实战
  • laravel-数据库查询
  • HarmonyNext保存Base64文件到Download下
  • 使用多路复用技术提升网站性能
  • 页面中包含多个el-popover,点击其中一个显示,其他的关闭(多个el-popover,click触发,点击都不消失的问题)
  • docker 基础镜像里 scratch 和alpine,ubuntu centos详细对比(镜像优化)
  • 如何声明一个类?类如何继承?
  • 网络最快的速度光速,因此‘‘光网络‘‘由此产生
  • Codeforces Round 979 (Div. 2) B. Minimise Oneness
  • WileyNJDv5_Template模板无法编译生成pdf文件
  • HTML+CSS (基础)
  • qt 序列化和反序列化
  • AI 代写是变现最快的副业项目,没有之一
  • docker harbor
  • Python学习的自我理解和想法(16)
  • 简单说说 spring构造器循环依赖 为什么无法解决(源码解析)