当前位置: 首页 > article >正文

无人机仿真、感知、规划


文章目录

  • 1.仿真环境
    • 1.1 博客教学
    • 1.2 教学视频
      • 1基础无人机仿真教学视频介绍
      • 2 XTDrone无人机仿真与控制技术全面教程
      • 3 ROS机器人集群仿真与实践教程
    • 1.3 开源项目及插件
      • 1 ROS2-Gazebo Drone Simulation Plugin
      • 2 RotorS_UAV_Gazebo_Simulator
      • 3 自主无人机与Aruco导航教程
      • 4 基于 AirSim 插件的 Unreal Engine 4 模拟接口
  • 2. 无人机导航
    • 2.1 自主导航
      • 1. 香港科技大学 Fast-Planner,支持多种规划器
      • 2. IROS 2024:中山大学 FC-Planner
      • 3. Science Robotics2024开源:SUPER无人机:高速与安全的完美结合
    • 2.2 自主定位
      • 1 AAAI'25开源:Game4Loc:利用游戏数据创建无人机地理定位基准
      • 2 UAV-VisLoc 无人机定位数据集
      • 3. DenseUAV:低空城市环境中基于视觉的无人机自主定位
      • 4. LoD-Loc:使用具有神经线框对齐的 LoD 3D 地图进行视觉定位


1.仿真环境

1.1 博客教学

  • ubuntu搭建PX4无人机仿真环境
  • 带你玩转PX4无人机仿真—— 运行官方案例
  • AirSim+UE4+MARL无人机仿真
  • 无人机仿真环境配置初探(Unreal Engine + AirSim Plugin)

1.2 教学视频

1基础无人机仿真教学视频介绍

在这里插入图片描述

简介
本教程是一系列关于无人机、PX4飞行控制平台和ROS(机器人操作系统)的入门到进阶教学视频。通过这些视频,你将学习到无人机的基础知识、仿真环境的配置与开发、无人机控制的关键技术,以及如何利用Matlab进行路径规划和仿真。特别强调了offboard控制仿真环境开发3D RRT路径规划、以及Matlab与PX4的集成等核心内容,旨在帮助初学者快速掌握无人机开发的相关技能。

教程链接:
教学视频:链接
开源代码:gitee

2 XTDrone无人机仿真与控制技术全面教程

在这里插入图片描述
简介:
本教程系列深入探讨了无人机仿真与控制技术,涵盖了从基础到高级的多个方面。通过详细的视频讲解,学习者将掌握ROS、PX4、Gazebo和Mavros等关键技术,了解如何搭建和使用国内顶级无人机仿真平台XTDrone。教程内容包括无人机的基础配置、控制代码精讲、EKF配置、传感器集成、路径规划、视觉SLAM、以及多无人机编队控制等。此外,还提供了关于如何利用Docker快速部署仿真环境、使用Gazebo进行位姿模拟、以及多无人机精准降落等实用技巧。本教程适合无人机开发者、研究人员以及对无人机仿真技术感兴趣的学习者。

教程链接:

  • XTDrone开源代码网址: XTDrone on Gitee
  • XTDrone使用文档: XTDrone Manual

3 ROS机器人集群仿真与实践教程

在这里插入图片描述
简介

本教程系列由田博主讲,深入探讨了ROS机器人集群的仿真与实践,特别是无人机和机器人的空地协同集群与可视化。教程内容包括快速实现ROS入门、多机协同项目如abc_swarm、机器人编队仿真测试、多机器人启动协同建图实测、多机导航与阵型的真机演示等。此外,还涵盖了规划与控制算法导论、编队跟随的运动学推导与仿真、以及多机协同之编队演示与问题讨论等高级主题。这些教程旨在帮助学习者掌握ROS在多机器人系统中的应用,从基础到高级,逐步深入,适合对ROS机器人集群仿真与实践感兴趣的开发者和研究人员。

开源项目代码库

  • Tianbot Mini 驱动: tianbot_mini
  • RoboMaster TT 驱动: rmtt_ros
  • abc_swarm 多机空地协同: abc_swarm

1.3 开源项目及插件

1 ROS2-Gazebo Drone Simulation Plugin

ROS2-Gazebo Drone Simulation Plugin

  • 核心简介:这是一个由上海交通大学开发的ROS2-Gazebo无人机仿真插件,用于在Gazebo环境中模拟四旋翼无人机。该插件提供了高保真度的仿真能力,能够模拟真实的物理和环境交互,并且与ROS2无缝集成。用户可以根据自己的需求定制无人机参数和环境条件[10]。

2 RotorS_UAV_Gazebo_Simulator

RotorS_UAV_Gazebo_Simulator

  • 核心简介:RotorS是一个多旋翼无人机的Gazebo仿真器,提供了多种多旋翼模型,如AscTec Hummingbird、AscTec Pelican和AscTec Firefly。该仿真器虽然不支持ROS 2,但其模型和仿真功能对于ROS 1用户来说非常有用[13]。

3 自主无人机与Aruco导航教程

自主无人机与Aruco导航教程

  • 核心简介:本教程专为2024年9月7日至8日在UCL HereEast举办的自主无人机黑客马拉松设计,旨在教授参与者如何使真实和模拟的无人机围绕Aruco标记进行飞行。教程内容涵盖无人机的基本介绍、部件构成、控制系统架构、软件架构,以及如何在仿真环境中和现实中实现无人机的自主飞行和Aruco标记的实时检测。通过本教程,参与者将学习到无人机的基础知识,以及如何利用Aruco标记进行导航和控制,为无人机的自主飞行提供实用技能。

4 基于 AirSim 插件的 Unreal Engine 4 模拟接口

基于 AirSim 插件的 Unreal Engine 4 模拟接口

  • unreal_airsim 是苏黎世联邦理工学院(ETH Zurich)开发的一个基于 Unreal Engine 4(UE4)的仿真接口项目,它利用微软的 AirSim 插件与 UE4 进行交互,能够进行逼真的仿真模拟。该项目包含了一系列仿真工具和实用程序,旨在为无人机等机器人系统提供高度逼真的虚拟测试环境,帮助研究人员和开发者在虚拟环境中进行算法开发和系统测试。

2. 无人机导航

2.1 自主导航

1. 香港科技大学 Fast-Planner,支持多种规划器

香港科技大学 Fast-Planner,多种规划器支持
在这里插入图片描述

项目概述

Fast-Planner 是由香港科技大学(HKUST)空中机器人团队开发的一个高效、鲁棒的四旋翼无人机轨迹规划器。该项目旨在实现四旋翼无人机在复杂未知环境中的快速飞行,包含了一系列精心设计的规划算法。此外,Fast-Planner 还为多个流行的开源无人机项目提供了基础代码框架和算法支持,如 ego-plannerFUELRACER 等。

项目特点

  • 高效规划:Fast-Planner 包含了多种高效规划算法 ,如基于动力学的路径搜索、基于 B 样条的轨迹优化、拓扑路径搜索及路径引导优化等,能够快速生成平滑且动态可行的轨迹。
  • 感知与规划融合:项目还提出了感知感知规划策略,使无人机能够主动观察并避开未知障碍物,提高了在复杂环境中的飞行安全性。
  • 仿真与测试:项目提供了完整的仿真环境,包括随机地图生成和无人机模型,用户可以通过 Rviz 进行可视化,并使用 2D Nav Goal 工具为无人机设置目标点,触发规划器生成轨迹并执行。

2. IROS 2024:中山大学 FC-Planner

IROS 2024:中山大学 FC-Planner
在这里插入图片描述

项目概述
FC-Planner 是由中山大学(SYSU)STAR 实验室开发的一个高效的全局规划框架,专为空中覆盖复杂三维场景而设计。该项目在 ICRA 2024 上获得了最佳 UAV 论文奖决赛入围,并且其扩展版本 SOAR 被 IROS 2024 接收为口头报告。FC-Planner 通过骨架引导的规划方法,实现了对大型复杂 3D 场景的快速覆盖,仿真和现实世界实验均证明了该方法相比现有技术的系统简洁性和性能优势。

项目特点

  • 高效覆盖:FC-Planner 能够快速生成覆盖复杂 3D 场景的轨迹,适用于大规模场景的空中覆盖任务。
  • 骨架引导:采用骨架引导的规划策略,有效地分解空间并生成覆盖路径,提高了规划效率和覆盖质量。
  • 模块化设计:项目提供了空间分解(SSD)和视点生成等模块化功能,方便用户根据需求进行定制和扩展。

3. Science Robotics2024开源:SUPER无人机:高速与安全的完美结合

Science Robotics2024开源:SUPER无人机:高速与安全的完美结合
在这里插入图片描述
SUPER无人机是一款融合了高速与安全特性的创新产品。在硬件设计上,它采用了紧凑的机身和强劲的动力系统,实现了超过5.0的推重比,赋予了无人机卓越的机动性能。在软件方面,SUPER结合了高精度雷达感知算法、运动规划算法和模型预测控制算法,使其能够在未知环境中依靠机载传感器和计算机实现超过20 m/s的高速自主飞行。此外,SUPER无人机还具备激光雷达感知优势,能够高效识别并躲避细小障碍物,同时在完全黑暗的环境中也能自主导航。它已被应用于自主探索和目标跟踪等任务。开源代码支持ROS1和ROS2,鼓励社区进行测试和贡献。项目的成功离不开合作者的贡献,包括孔繁泽、STAR Lab、高性能并行盆栽等设计的NxtPx4飞控,以及DJI提供的捐赠和实验设备。

在这里插入图片描述

2.2 自主定位

1 AAAI’25开源:Game4Loc:利用游戏数据创建无人机地理定位基准

AAAI’25开源:Game4Loc:利用游戏数据创建无人机地理定位基准
在这里插入图片描述

Game4Loc 是一个创新的无人机地理定位基准项目,它利用从游戏数据中提取的信息来训练和测试无人机的视觉地理定位能力。该项目由 Yuxiang JiBoyong HeZhuoyue TanLiaoni Wu 开发,并已被 AAAI’25 接收为口头报告。

Game4Loc 数据集提供了一个覆盖 81.3 平方公里 的大范围连续区域,用于无人机视觉地理定位。数据集包括 33,763 张 模拟无人机视角图像,这些图像来自不同的高度、姿态和场景(如城市、山脉、海岸、森林等),以及 14,640 张 分块卫星视角图像,这些图像来自 4 个不同的缩放级别,用于任意配对。 该项目的开源代码支持 ROS1 和 ROS2,鼓励社区进行测试和贡献。数据集分为低分辨率(512x384,12.8G)和高分辨率(1920x1440,133.6G)两个版本,其中高分辨率版本即将发布。项目还包括详细的数据结构说明、训练和测试指南、预训练模型检查点等资源。Game4Loc 项目 不仅为无人机地理定位研究提供了宝贵的资源,还展示了如何利用游戏数据来解决现实世界中的技术挑战。
在这里插入图片描述

2 UAV-VisLoc 无人机定位数据集

UAV-VisLoc 无人机定位数据集
在这里插入图片描述

概述:
UAV-VisLoc 是由 IntelliSensing 团队发布的一个大规模无人机视觉定位数据集,旨在为无人机视觉定位任务提供基准测试。该项目提出了一个统一的无人机视觉定位方法定义,并构建了一个包含 6742 张无人机图像和 11 幅卫星地图的数据集,总大小为 16.4GB。数据集涵盖了多种地形(如城市、城镇、农田和河流)以及不同高度和航向角的无人机图像,为无人机在失去 GNSS 信号时通过匹配无人机图像和卫星地图来获取位置坐标的任务提供了丰富的资源。

数据集特点:

  • 多地形覆盖:数据集包含了多种地形类型的无人机图像,如城市、城镇、农田、河流等,提供了丰富的地理环境样本。
  • 多高度和多航向角:数据集中的无人机图像拍摄于不同高度,并记录了无人机的航向角信息,为研究提供了多样化的视角和条件。
  • 大规模数据:提供了足够数量的数据,支持模型的训练和测试,有助于推动无人机视觉定位技术的发展。
  • 固定翼无人机图像:除了多旋翼无人机图像外,数据集还补充了固定翼无人机在更高高度拍摄的图像,以适应多领域的模型训练和测试需求。

数据集结构:
数据集的文件结构清晰,每个子目录包含无人机图像、对应的卫星地图以及标注了图像属性(如中心点经纬度、拍摄高度、拍摄日期和无人机航向角等)的 CSV 文件。卫星地图的每个像素都被标记了坐标,使得无人机能够通过图像匹配获取精确的位置信息。

3. DenseUAV:低空城市环境中基于视觉的无人机自主定位

东南大学DenseUAV
在这里插入图片描述
概述:
DenseUAV 是一个专注于低空城市环境中无人机(UAV)视觉定位的项目,其相关成果发表在 IEEE Transactions on Image Processing 上。该项目提出了一种利用视觉技术在复杂低空城市环境中对无人机进行精确定位的方法,并提供了 DenseUAV 数据集和基线模型实现,以促进该领域的研究。DenseUAV 数据集包含了丰富的无人机视角和卫星视角图像,涵盖了多个类别和大学场景,为研究人员提供了宝贵的资源。

特点:

  • 视觉定位:利用视觉技术实现无人机在低空城市环境中的精确定位,解决了在复杂环境中的定位难题。
  • 数据丰富:提供了详细的 DenseUAV 数据集,包括训练集、查询集和画廊集,涵盖了多种场景和类别。
  • 基线模型:提供了基于多种网络架构(如 ResNet、EfficientNet、ConvNext 等)的基线模型实现,方便研究人员进行对比和改进。
  • 多种方法支持:支持多种数据增强方法、网络骨干、头部结构和损失函数,为研究人员提供了灵活的实验平台。

4. LoD-Loc:使用具有神经线框对齐的 LoD 3D 地图进行视觉定位

LoD-Loc:使用具有神经线框对齐的 LoD 3D 地图进行视觉定位
在这里插入图片描述
LoD-Loc 是国防科技大学虚拟现实与计算机视觉实验室提出的一种无人机视觉定位方法,专为 LoD(Level of Detail)三维城市地图 的视觉定位而设计。该方法通过 神经网络预测的建筑线框LoD 三维模型投影的线框 进行对齐,从而恢复无人机的相机姿态。LoD-Loc 利用查询图像及其传感器先验(如 GPS、重力和指南针)作为输入,估计飞行中无人机的 6 自由度姿态。这种方法的核心思想是,如果姿态正确解决,网络预测的建筑线框可以与从 LoD 三维模型投影的线框对齐,从而实现精确的视觉定位。

LoD-Loc 的实现代码已经开源,提供了完整的训练和评估流程,支持在 UAVD4L-LoDSwiss-EPFL 数据集上的模型训练和性能评估。项目还提供了数据预处理脚本,用于生成特定场景的数据集,并提供了详细的安装和使用指南。此外,LoD-Loc 还支持 RGB 和热成像 等多种模态的无人机图像,增强了在不同环境下的定位能力。如果您在研究中使用了该代码或论文中的想法,建议引用相关的文献。


http://www.kler.cn/a/557101.html

相关文章:

  • Java值传递,会影响原值的原因
  • Windows使用docker部署fastgpt出现的一些问题
  • Deepseek reasoning-content 透出调研
  • 进程间通信中间件---ZeroMQ
  • HarmonyOS 开发套件 介绍——下篇
  • std::lock_guard、std::unique_lock、std::shared_lock
  • 青少年软件编程(C语言)等级三级考试试题(2)
  • DeepSeek 到底是什么类型的应用,其核心功能是什么?
  • 工业机器人中用于3D碰撞检测的算法库有哪些
  • ubuntu ffmpeg 安装踩坑
  • 【Python项目】基于Django的网站验证码的生成与识别系统
  • 基于Java+SpringBoot+Vue的前后端分离的汽车租赁系统
  • 正则表达式效验邮箱格式, 手机号格式, 密码长度
  • Python 学习之旅:高级阶段(十四)Web 开发框架 Flask
  • 邮件安全之发件人伪造
  • [漏洞篇]文件上传漏洞详解
  • matlab 车辆进出检测算法设计GUI界面-论文
  • 蓝桥杯刷题2.21|笔记
  • 爬虫学习第八篇-学习小总结
  • MYSQL查询优化器选错了索引怎么办