当前位置: 首页 > article >正文

探索YOLO v11:3D人工智能的RGB-D视觉革命

哈喽,各位OAK中国的朋友们!

大家好我是张伯生

今天,我想给大家演示一下最新发布的Yolo V11神经网络

下面我将演示的一个程序是:同时在我们的OAK相机上跑Yolo V11和RGB-D,也就是彩色相机和深度图的一个叠加的一个效果

RGB-D和Yolo V11都是跑在我们的相机里面的并且相机的内部做了一个畸变校正以后的深度图,然后在叠加的图上产生一个Yolo V11检测和识别的效果

现在是跑30帧,1920*1080的这样的一个分辨率

这个是我们的彩色图

大家可以看到Yolo V11识别的一个效果

优点:

我经过和Yolo V8和V9对比以后

发现Yolo V11识别的东西:识别框更稳定,并且识别的东西更准

可以识别到我的手机和我的鼠标

同时可以叠加一个深度图,深度图可以跟RGB图进行一个对齐

这是一个bottle深度图

一个深度图上的框产生X Y Z 3个坐标

然后同时我可以把它变成彩色图

这所有的识别工作以及RGB-D的生成工作都是在相机里面完成的

OAK相机优势:

OAK它的优势就是在一个神经网络方面的一个超强的兼容性

以及对新的神经网络架构的一个适应性。(能够比较简单快速的把Yolo系列的神经网络模型

以及其他的一些比较新的神经网络模型可以部署在我们的OAK相机里面并且同时跑RGB-D)

之前我也演示过:运行Yolo  V10 V9 V8 V6V5 都是可以在我们的OAK相机里面去运行的。

包括之前的V8的一个人体姿态检测的模型的模型和V11的分割的模型一直到今天出的Yolo V11,也都可以在我们的相机里面比较流畅的运行

下面会给大家看一下Yolo V11模型在OAK的内部做加速的时候的运行的一个速率

Yolo V11运行在我们OAK的相机里面换成自己的路径就可以,其他的代码和Yolo V8 V9 V10基本上是一样的,什么配置也不用做

大家可以看到Yolo V11可以稳定的运行在27帧左右

识别这个手机、椅子、后面的植物、桌子、电视机、它也都能识别

哪怕露一点头,也能识别到人

好今天我的介绍就到这里

谢谢大家

(实跑视频效果请前往视频平台查看)


http://www.kler.cn/news/357459.html

相关文章:

  • 深度解析 Redis 存储结构及其高效性背后的机制
  • 放眼全球:在竞争激烈的当下,海外媒体发稿何以备受关注?
  • UDP协议和TCP协议
  • 常见网络钓鱼类型
  • 【深度学习|地学应用】Aerosol——宏观层面分析地震气溶胶异常——采用 HYSPLIT-4模型模拟地震AOD异常的水平和垂直后向轨迹
  • IDEA中的快捷键大全--超详细
  • UltraISO(软碟通)制作U盘制作Ubuntu20.04启动盘
  • SQLI LABS | Less-2 GET-Error based-Intiger based
  • 24算法刷题 | Day46 | 动态规划 XIII | 子序列问题 IV | LeetCode 647. 回文子串,516. 最长回文子序列
  • 面试手撕代码-二十三种设计模式之享元模式
  • 计算机组成原理(笔记7高速缓冲存储器Cache,计算机组成原理的重难点全、直接、组相连)
  • 探索 Python 中的 XML 转换利器:xml2dict
  • 量子门电路开销——T门、clifford门、toffoli门、fredkin门
  • AutoFixture:.NET 的假数据生成工具
  • 道路垃圾识别数据集 含pt模型界面 18类 共7542张图片,xml和txt标签都有;
  • 安全光幕的工作原理及应用场景
  • 域7:安全运营 第18章(DRP)和第19章 (Investigation and Ethics)
  • Java中的Math类
  • 五、事务和并发控制及索引和性能优化
  • 大幅降低人工核验遗漏的概率,降低出错风险的智慧能源开源了