我是靠谱客的博主 聪慧自行车,最近开发中收集的这篇文章主要介绍基于matlab城市空中交通场景中的激光雷达与雷达融合仿真(附源码)一、创建城市空中交通方案二、定义无人机传感器套件三、定义跟踪系统四、可视化五、模拟场景六、跟踪指标七、总结八、程序​,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

目录

一、创建城市空中交通方案

二、定义无人机传感器套件

三、定义跟踪系统

3.1 激光雷达点云处理

3.2 激光雷达跟踪器

3.3 雷达跟踪器

3.4 轨道融合

四、可视化

五、模拟场景

六、跟踪指标

七、总结

八、程序​


此示例演示如何使用多对象跟踪器跟踪城市环境中的各种无人机 (UAV)。可以使用基于在线提供的建筑物和地形数据的对象创建场景。然后,使用激光雷达和雷达传感器模型生成合成传感器数据。最后,使用各种跟踪算法来估计场景中所有无人机的状态。

无人机专为广泛的操作而设计。许多应用都设置在城市环境中,例如无人机包裹递送、空中出租车和电力线检查。随着应用数量的增加,这些操作的安全性变得至关重要,这使得控制城市空域成为一项挑战。

一、创建城市空中交通方案

在此示例中,使用科罗拉多州博尔德的地形和建筑物数据。数字地形高程数据 (DTED) 文件是从美国地质调查局提供的 SRTM 空隙填充数据集下载的。南博尔德的建筑数据是从https://www.openstreetmap.org/ 下载的,该数据提供了对世界各地众包地图数据的访问。

接下来,向方案添加一些无人机。要对包裹递送操作进行建模,请定义从建筑物屋顶出发并飞到其他建筑物的轨迹。轨迹由三条腿组成。四旋翼飞行器垂直起飞,然后飞向下一个交付目的地,最后垂直降落在屋顶上。

添加另一架无人机来模拟飞过的空中出租车。它的轨迹是线性的,略微下降。使用几何图形对适合运送人员的大型无人机进行建模。然后添加一个四旋翼飞行器,其轨迹沿街道路径。这代表无人机检查电网线路以进行维护。最后,添加自我无人机,一种负责监视现场和跟踪不同移动平台的无人机。

二、定义无人机传感器套件

在自我车辆上安装传感器。使用汽车应用中常用的激光雷达冰球 [1]。冰球是一个小型传感器,可以安装在四旋翼飞行器上。对激光雷达冰盘使用以下规范:

  • 范围分辨率: 3 厘米

  • 最大范围:100 m

  • 360 度方位角跨度,0.2° 分辨率

  • 30 度仰角跨度,2° 分辨率

  • 更新速率: 10 Hz

  • 倾斜 90° 安装以向下看

接下来,使用雷达工具箱中的系统对象添加雷达。若要将此传感器添加到 UAV 平台,需要定义自定义适配器类。使用目标的网格几何来定义雷达模型的长方体尺寸。网格还用于为每个目标派生一个简单的 RCS 特征。雷达配置设置为:

  • 频率: 24.4524.65 GHz-

  • 视野:120°方位角 80°仰角

  • 分辨率:方位角 2 度,仰角 6°

  • 全扫描速率:1 Hz

  • 灵敏度:200 m 时为 0 dBsm(英语:0 dBsm)

此外,将雷达配置为为每个对象输出多个检测。尽管雷达可以输出表示点目标的轨迹,但希望估计目标的范围,而默认轨迹输出无法提供该范围。因此,将属性设置为以便雷达直接报告粗略检测。

三、定义跟踪系统

3.1 激光雷达点云处理

激光雷达传感器返回点云。要融合激光雷达输出,必须对点云进行聚类以提取对象检测。使用激光雷达工具箱中的函数分割地形。对剩余的点云进行聚类,并对每个聚类平均高程应用一个简单的阈值以过滤掉建筑物检测。用长方体拟合每个聚类以提取边界框检测。此示例中可用的帮助程序类具有实现详细信息。

激光雷达长方体检测使用对象进行格式化。这些检测的测量状态为

  • x,y,z分别是沿方案的东轴、北轴和上轴 (ENU) 的长方体中心坐标。

  • 长,宽,高分别是长方体的长度、宽度和高度。

  • q = q0+1.i+ q2标记。D+q3.K是定义长方体相对于 ENU 轴的方向的四元数。

3.2 激光雷达跟踪器

使用点目标跟踪器跟踪激光雷达边界框检测。点跟踪器假设每架无人机每次传感器扫描最多可以生成一次检测。此假设是有效的,因为您已将点云聚类为长方体。要设置跟踪器,您需要定义运动模型和测量模型。在此示例中,您将使用增强的恒定速度模型对无人机的动力学进行建模。恒定速度模型足以跟踪由直线飞行腿或缓慢变化的航段组成的轨迹。此外,假设无人机的方向是恒定的,并假设无人机的尺寸是恒定的。

3.3 雷达跟踪器

在此示例中,假设对雷达回波进行了预处理,以便仅保留来自移动对象的回波,也就是说,没有来自地面或建筑物的回波。雷达分辨率足够精细,可以为每个无人机目标生成多个回波,其检测不应直接馈送到点目标跟踪器。有两种可能的高分辨率雷达探测方法进行跟踪。其中一种方法是,可以对检测进行聚类,并使用维度和方向常量增强状态,就像之前使用激光雷达长方体所做的那样。

在另一种方法中,可以使用 GGIW-PHD 跟踪器将检测结果馈送到此示例中采用的扩展目标跟踪器。该跟踪器使用逆 Wishart 分布估计每个目标的范围,其期望是一个 3×3 的正定矩阵,将目标的范围表示为 3-D 椭圆。第二种方法更可取,因为每个对象的检测次数没有太多,并且聚类分析不如扩展目标跟踪准确。

要创建 GGIW-PHD 跟踪器,请首先为向跟踪器报告的每个传感器定义跟踪传感器配置。在这种情况下,您只需定义一个雷达的配置。当雷达安装平台移动时,您需要在每个跟踪器步骤之前使用当前的雷达姿势更新此配置。接下来,根据传感器配置定义过滤器初始化函数。最后,构造一个对象并增加分区阈值,以捕获此示例中跟踪的对象维度。实现详细信息显示在支持函数中示例的末尾。

3.4 轨道融合

创建跟踪系统的最后一步是定义轨迹热熔器对象以融合激光雷达轨迹和雷达轨迹。使用激光雷达轨迹的 13 维状态作为融合状态定义。

四、可视化

使用帮助程序类可视化方案。此示例中的帮助程序类利用可视化功能和绘图仪来表示检测和跟踪信息。显示屏分为五个图块,分别显示整体3D场景,三个无人机的三个追逐摄像头和图例。

五、模拟场景

运行方案并可视化跟踪系统的结果。保存每个目标的真实位置以及雷达、激光雷达和融合轨迹,以供离线指标分析。

根据可视化结果,对跟踪性能进行初步定性评估。场景结束时的显示显示,所有三架无人机都被自我很好地跟踪了。在当前的传感器套件配置中,由于激光雷达传感器的覆盖范围有限,激光雷达轨迹仅部分建立。在这种情况下,雷达的更宽视野允许更一致地建立雷达轨迹。

上面的三个动画 GIF 显示了部分追逐视图。可以看到激光雷达轨迹(橙色框)的质量受方案几何的影响。无人机 A(左)几乎直接从上方被激光雷达(以黄色显示)照亮。这使跟踪器能够随着时间的推移捕获无人机的全部范围。然而,无人机C(右)被雷达部分看到,导致低估了无人机的大小。此外,估计的质心周期性地围绕真正的无人机中心振荡。较大的固定翼无人机(中)生成许多激光雷达点。因此,一旦目标完全进入激光雷达的视野,跟踪器就可以检测和跟踪目标的全貌。在所有三种情况下,以蓝色显示的雷达可提供更准确的目标范围信息。因此,融合的跟踪盒(紫色)更接近于捕获每架无人机的范围。但是,雷达回波的位置不太准确。雷达轨迹显示更多的位置偏差和较差的方向估计。

六、跟踪指标

在本节中,将使用 OSPA(2) 跟踪指标分析跟踪系统的性能。首先定义距离函数,该函数使用标量值量化轨迹和真值之间的误差。较低的 OSPA 值意味着整体性能越好。

分析整体系统性能。每个跟踪器都会因不跟踪任何无人机而受到惩罚,即使目标无人机不在传感器覆盖范围之外。这表明,由于增加了监视区域,融合激光雷达和雷达时的性能有所提高。这在仿真结束时尤其明显,其中两个目标被跟踪,一个通过雷达,另一个通过激光雷达,但两者都被热熔器跟踪。此外,可以看到融合的 OSPA 低于激光雷达和雷达 OSPA 的最小值,这表明融合轨迹的质量优于每个单独的轨迹。

七、总结

此示例向您展示了如何对无人机载激光雷达和雷达跟踪系统进行建模,并在城市空中交通场景中对其进行了测试。使用对象创建了一个具有地形和建筑物的逼真的城市环境。然后,生成了合成传感器数据来测试完整的跟踪系统链,包括点云处理、点目标和扩展目标跟踪以及跟踪融合。

八、程序​

使用Matlab R2022b版本,点击打开。

打开下面的“LidarRadarFusionUAMExample.mlx”文件,点击运行,就可以看到上述效果。

获取方法一:

城市空中交通场景中的激光雷达与雷达融合仿真(Matlab程序).rar

获取方法二:

关注下面公众号,点击文章《基于matlab城市空中交通场景中的激光雷达与雷达融合仿真》,获取源码链接。

最后

以上就是聪慧自行车为你收集整理的基于matlab城市空中交通场景中的激光雷达与雷达融合仿真(附源码)一、创建城市空中交通方案二、定义无人机传感器套件三、定义跟踪系统四、可视化五、模拟场景六、跟踪指标七、总结八、程序​的全部内容,希望文章能够帮你解决基于matlab城市空中交通场景中的激光雷达与雷达融合仿真(附源码)一、创建城市空中交通方案二、定义无人机传感器套件三、定义跟踪系统四、可视化五、模拟场景六、跟踪指标七、总结八、程序​所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(56)

相关文章

评论列表共有 0 条评论

立即
投稿
返回
顶部