Yolo 对象检测系列更新无止境,Ultralytics 发布 Yolov11 更快,更强
要说那个人工智能模型更新的最快,最频繁,当数 Yolo 对象检查系列模型了,前几期的文章,我们有介绍过Yolov9,Yolov8 ,Yolov7,Yolov6等系列的模型。
本想打算更新下Yolov10 模型,但是Yolov11 就紧跟发布,不得不说人工智能是真的卷。而真正让人工智能领域更加内卷的便是今年的诺贝尔物理与化学奖都颁给了 AI 领域的大牛,不得不说 AI 是真的卷。
话说回来,Yolo 对象检查系列已经发布到了 11 个版本,其中版本更新最多的便是Ultralytics。YOLO11 是 Ultralytics 发布的 YOLO 系列的最新版本。YOLO11 配备了超轻量级模型,比以前的 YOLO 系列更快、更高效。YOLO11 模型能够执行更广泛的计算机视觉任务。
Ultralytics 根据规模发布了五种尺寸大小的 YOLO11 模型,在所有任务中发布了 25 种模型:
- YOLO11n——适用于小型和轻量级任务的 Nano。
- YOLO11s ——Nano 的小幅升级,具有更高的准确性。
- YOLO11m – 适合通用的中等版本。
- YOLO11l – 大型,可实现更高的准确度和更高的计算量。
- YOLO11x – 超大尺寸,可实现最高准确度和性能。
每种模型都可以进行对象检测,对象分类,对象分割,对象追踪,定向物体检测与人体姿态检测任务。当然越轻量级的模型,其检测速度越快,但是模型的识别精度就越低。
YOLO11 建立在 Ultralytics YOLOv8 代码库之上,并进行了一些架构修改。它还集成了以前的 YOLO(如 YOLOv9 和 YOLOv10)系列中的新功能,以提高模型性能。
YOLO11 通过将输入图像传入 CNN 卷积神经网络来提取特征,从而执行对象检测。然后,Yolo网络预测这些网格内对象的边界框和类别概率。
为了处理多尺度检测,使用层来确保检测到各种大小的对象。然后使用非最大抑制 (NMS) 细化这些预测以过滤掉重复或低置信度的框,从而实现更准确的对象检测。
YOLO11 在 MS-COCO 数据集上进行对象检测训练,其中包括 80 个预训练类。
除了对象检测之外,YOLO11 还通过添加掩码预测分支扩展到实例分割。这些模型在 MS-COCO 数据集上进行训练,该数据集包含 80 个预训练类。此分支为每个检测到的物体生成逐像素分割掩码,使模型能够区分重叠物体并提供其形状的精确轮廓。
YOLO11 通过检测和预测物体上的关键点来执行姿势估计。关键点连接起来形成骨架结构,在模型头部添加姿势估计层,训练网络预测关键点的坐标,后处理步骤将这些点连接起来形成骨架结构,进而实现实时姿势识别。
YOLO11 通过整合定向物体检测扩展了常规物体检测,这使得模型能够检测和分类旋转或方向不规则的物体。这对于航空图像分析等应用特别有用。这些模型是在 DOTAv1 上训练的,其中包括 15 个预训练类。
定向物体检测模型不仅输出边界框坐标,还输出旋转角度 (θ) 与四个角点。这些坐标用于创建与物体方向一致的边界框,从而提高旋转物体的检测准确率。
YOLO11对象检测模型的改进
- 增强的特征提取:YOLO11采用改进的主干和颈部架构,增强了特征提取能力,以实现更精确的目标检测和复杂任务性能。
- 针对效率和速度进行优化:YOLO11 引入了精致的架构设计和优化的训练管道,提供更快的处理速度并保持准确性和性能之间的最佳平衡。
- 使用更少的参数获得更高的精度:随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的平均精度 (mAP),同时使用的参数比 YOLOv8m 少 22%,从而在不影响精度的情况下提高计算效率。
- 跨环境适应性:YOLO11可以无缝部署在各种环境中,包括边缘设备、云平台以及支持NVIDIA GPU的系统,确保最大的灵活性。
- 支持的任务范围广泛:无论是对象检测、实例分割、图像分类、姿态估计还是定向对象检测 (定向物体检测),YOLO11 使用在各种计算机视觉任务上,而基于 YOLO 系列模型开发的应用数不胜数。
YOLO11对象检测模型的使用
使用yolo11系列也是比较简单,只需要 git 整个yolo11 的 GitHub 代码,在ultralytics文件夹下输入如下指令即可。运行代码后,预训练模型会自动进行下载,这里根据自己的配置,选择合适的模型即可。
! git clone https://github.com/ultralytics/ultralytics.git
! cd ultralytics
对象检测
yolo detect predict model=yolo11x.pt source='./path/to/your/video.mp4' save=True classes=[0]
实例分割
yolo segment predict model=yolo11x.pt source='./path/to /your/video.mp4' save=True classes=[0]
姿态估计
yolo pose predict model=yolo11x-pose.pt source='./path/to/your/video.mp4' save=True classes=[0]
定向物体检测
yolo obb predict model=yolo11x-obb.pt source='./path/to/your/video.mp4' save=True
当然,除了以上运行方式外,也可以使用 Python 代码进行使用,使用前,需要使用 pip安装ultralytics库
from ultralytics import YOLO
# 加载 COCO-pretrained YOLO11n model
model = YOLO("yolo11n.pt")
#运行预测
results = model("path/to/demo.jpg")
YOLO11对象检测模型
- 轻量高效:YOLO11 是 YOLO 系列中最轻量、最快的型号。它具有五种不同尺寸。可满足从轻量级任务到高性能应用的各种用例。
- 新架构:YOLO11 引入了新的架构改进,例如 C3k2块、SPPF 和 C2PSA,使模型能够更有效地提取和处理特征,并提高对图像关键区域的关注度。
- 多任务功能:除了对象检测之外,YOLO11 还可以处理实例分割、图像分类、姿势估计和定向对象检测 (定向物体检测),使其在计算机视觉任务中具有高度通用性。
- 增强的注意力机制:架构中集成 C2PSA 等空间注意力机制有助于 YOLO11 更有效地关注图像中的重要区域,从而提高其检测准确性,特别是对于复杂或遮挡的物体。不得不说,注意力机制已经渗透到了整个人工智能领域。
https://arxiv.org/pdf/2304.00501
https://docs.ultralytics.com/models/yolo11/#key-features
https://github.com/ultralytics/ultralytics?tab=readme-ov-file https://learnopencv.com/yolo11/
更多transformer,VIT,swin tranformer
参考头条号:人工智能研究所
v号:启示AI科技
动画详解transformer 在线教程