此示例演示如何根据雷达和激光雷达传感器的测量值生成对象级轨迹列表,并使用轨迹级融合方案进一步融合它们。可以使用扩展对象跟踪器处理雷达测量值,并使用联合概率数据关联 (JPDA) 跟踪器处理激光雷达测量值。可以使用轨道级融合方案进一步融合这些轨道。工作流程示意图如下所示。
一、合成数据生成的设置方案此示例中使用的方案是使用驾驶场景(自动驾驶工具箱)创建的。来自雷达和激光雷达传感器的数据分别使用驾驶雷达数据生成器(自动驾驶工具箱)和激光雷达点云生成器(自动驾驶工具箱)进行模拟。场景和传感器模型的创建包含在帮助程序函数 中。
自我车辆装有四个2-D雷达传感器。前后雷达传感器的视野为45度。左右雷达传感器的视场角为150度。每个雷达的方位角分辨率为6度,范围为2.5米。ego还安装了一个3D激光雷达传感器,其方位角视野为360度,仰角为40度。激光雷达的方位角分辨率为 0.2 度,高程为 1.25 度(32 个高程通道)。在下面的动画中可视化传感器的配置和模拟的传感器数据。请注意,雷达的分辨率高于物体,因此会返回每个物体的多个测量值。另请注意,激光雷达与Actor的低多边形网格以及路面进行交互,以从这些对象返回多个点。
二、雷达跟踪算法如前所述,雷达具有比物体更高的分辨率,并且每个物体返回多个检测。全球最近邻 (GNN) 和联合概率数据协会 (JPDA) 等传统跟踪器假定传感器每次扫描每个对象最多返回一个检测结果。因此,来自高分辨率传感器的检测必须在使用传统跟踪器处理之前进行聚类,或者必须使用扩展的对象跟踪器进行处理。扩展对象跟踪器不需要对检测进行预聚类,并且通常可以估计运动学状态(例如,位置和速度)和对象的范围。
通常,扩展的对象跟踪器可以更好地估计对象,因为它们使用跟踪的时间历史记录同时处理聚类和数据关联。在此示例中,雷达检测使用高斯混合概率假设密度 (GM-PHD) 跟踪器(跟踪器PHD 和 gmphd)和矩形目标模型进行处理。
使用雷达测量值跟踪对象的算法包装在作为 System 对象™实现的帮助器类 中。此类输出一个对象跟踪对象数组,并根据以下约定定义其状态:
三、激光雷达跟踪算法与雷达类似,激光雷达传感器也会返回每个对象的多个测量值。此外,传感器从道路上返回大量点,在用作对象跟踪算法的输入之前必须删除这些点。虽然来自障碍物的激光雷达数据可以通过扩展的目标跟踪算法直接处理,但传统的跟踪算法对于使用激光雷达数据的跟踪仍然更为普遍。这种趋势的第一个原因主要是由于大型数据集的扩展对象跟踪器的计算复杂性更高。第二个原因是对先进的基于深度学习的探测器的投资,如点螺旋体、体素网和PIXOR,它们可以分割点云并为车辆返回边界框检测。这些探测器可以帮助克服由于聚类不当而导致的传统跟踪器的性能下降。
在此示例中,使用传统的联合概率数据关联 (JPDA) 跟踪器处理激光雷达数据,该跟踪器配置了交互多模型 (IMM) 过滤器。使用基于 RANSAC 的平面拟合算法对激光雷达数据进行预处理以移除点云,并通过执行基于欧几里得的距离聚类算法形成边界框。与链接的示例相比,跟踪是在场景帧中执行的,并且跟踪器被以不同的方式调整以跟踪不同大小的对象。此外,变量的状态以不同的方式定义,以约束轨道在其估计的航向角方向上的运动。
使用激光雷达数据跟踪对象的算法包含在帮助器类中,作为 System 对象实现。此类输出一个 objectTrack 对象数组,并根据以下约定定义其状态: