SOTIF:用于算法开发和评估的自动驾驶车辆传感器套件数据与地面真实轨迹(1)

2020-02-12 19:09:14·  来源:轩辕实验室  
 
*本文翻译自Juan R.Pimental所著Safety of the Intended Functionality (SOTIF) Book 3 - Automated Vehicle Safety Series,中文版权归轩辕实验室所有本文描述
*本文翻译自Juan R.Pimental所著Safety of the Intended Functionality (SOTIF) Book 3 - Automated Vehicle Safety Series,中文版权归轩辕实验室所有
 
本文描述了一个适用于检测和跟踪行人和自行车的测试算法、具有一个自动驾驶车辆传感器套件的多传感器数据集。该数据集可用于评估融合感知算法的优点,并提供行人、骑自行车者和其他车辆的地面真实轨迹,用于客观评估轨道精度。感知和感知算法开发的主要难点之一是根据地面真实数据评估跟踪算法的能力。地面真实是指在复杂的操作环境中对目标的位置、大小、速度、航向和类别的独立知识。我们的目标是在一个城市测试轨道上执行一个数据收集活动,在该轨道上使用辅助仪器测量感兴趣的移动对象的轨迹,并与几个配备完整传感器套件的雷达、激光雷达和相机的自动驾驶车辆(AV)相结合。多辆自动驾驶汽车在各种各样的场景中收集了测量数据,这些场景旨在整合现实世界中车辆与骑车人和行人的交互作用。一组骑自行车和骑自行车的人的轨迹数据是通过不同的方法收集的。在大多数情况下,骑自行车的人和行人身上的实时动能接收器实现RTK (实时运动)-定点或RTK-浮点精度,误差分别为几厘米或几分米;仪表化的相互作用车辆的位置精度约为10厘米。我们描述了密歇根大学Mcity联网车辆和自动化车辆测试设施的数据收集活动、交互场景和测试条件,并将展示测试的一些可视化结果以及初始评估结果。这些数据将作为一个全球框架、多传感器/多参与者的典型数据集,可用于开发和评估自动驾驶车辆的扩展目标跟踪算法。
 
1 简介
由于行人检测、识别和跟踪在汽车安全、机器人和监控领域的重要性,这些问题在过去几十年里引起了人们极大的兴趣。近年来,已经收集了大量的数据集,并公开供研究使用。然而,这些数据集的重点并没有涉及传感器融合和跟踪精度的评估。特别是,这些数据集是纯光学的,不支持雷达和激光雷达的研究。此外,现有的数据集没有独立的行人位置集合,因此没有办法评估由测试中的算法开发的轨道的准确性。为了扩展现有的研究数据集,包括激光雷达和雷达,并提供独立收集的地面真相,以评估跟踪误差,同时收集相机、激光雷达和雷达的测量数据,以及在现实的交通场景中RTK纠正行人和骑自行车者的位置。廉价的RTK系统已经被证明可以提供从几厘米到几分米的位置估计。该数据集的用途是为验证跟踪和传感器融合算法提供城市环境中被跟踪对象的三维位置的外部测量验证。在二维图像分割的意义上标记七架机载自动驾驶车辆摄像机的输出将在未来的工作中得到解决。
 
位置:
这些测试于2017年5月23日至25日和9月21日至22日在密歇根大学(Universityof Michigan)位于密歇根州安娜堡(Ann Arbor)的Mcity联网和自动化车辆测试设施进行。这条封闭的测试轨道包括几个街区的店面(模拟城市闭塞),可配置的交通信号灯,环形路和非结构化的交叉路口,人行道和十字路口,活跃的人行横道,自行车道,隧道,模拟树叶覆盖,和一个短的高速公路/合并路段。这些场景主要在城市区域,在State和Main的交叉点,State和Liberty的交叉点进行,如图1所示。
图1 密歇根大学Mcity联网和自动化车辆测试设施;图中是设施的一个子集,它包含了研究行人交互作用的城市交叉口。
 
2 实验设计
集合的设计是为了合并自动车辆的传感器套件,在其他车辆、骑自行车者和行人聚集的环境中运行,其中所有车辆、骑自行车者和行人的时间顺序位置是独立确定的。按时间顺序排序的位置用协调世界时(UTC)记录。这些独立的测量构成了地面真值,通过这些真值,可以对作用于传感器测量的估计算法进行评估。
 
场景的设计是为了跨越一组测试条件,这些测试条件可以在Mcity的微型城市环境中通过有限数量的受控参与者来实现。我们希望测试以下场景:
 
•传感器范围;轨迹起始范围
•轨迹分割的鲁棒性
•传感器融合性能
•与交通阻塞相关的挑战性动作,如无保护的左转弯(LTAT)
•行人跟踪,包括聚类/分割
•捕捉自然行人的行为
•激光雷达照明分集条件下的边界盒稳定性(视场、照明角度)
•传感器范围和传感器融合性能
•自行车跟踪
 
2017年9月的第二场活动更关注行人、车辆和十字路口基础设施之间的有机自然互动。实验分为动作、场景和取景镜头。这有助于通过与“Acts”相同的宏设置分组实验来辅助实验的执行(例如,重新配置任何停放的车辆或使用不同的交叉路口作为“场景中心”)。场景是指从一组简单的动作开始,逐步发展到更复杂的编排的场景。这允许参与者和驱动程序在任何特定场景的执行中建立能力。最后,每个场景都有两个或多个“场景”,既可以解决任何数据收集系统问题或编排问题,也可以增加在任何给定场景中收集的数据集的数量,以保证完整性。
 
为了一致性和易于收集,每次“拍摄”持续5分钟,测试协调员通过通用无线电频道将拍摄的开始和结束时间调至最近的UTC秒。这个过程是无价的,在收集后整理定量日志膝关节与实验分类法。这在实践中是通过记录来自每个传感器和动作、场景的日志碎片的关联,并接收一个称为“数据字典”的主电子表格来实现的。这个数据字典还可以用来自动处理和转换各种数据文件的bactch(坐标帧和时间基)。
 
2.1 自动汽车传感器
自动驾驶汽车第2代研究车队上的传感器由一组7个机器视觉级摄像机(Flea3)、4个威力登 HL32激光雷达传感器和2个汽车中长扫描雷达组成。传感器及其视场的物理布局如下图2所示。不过请注意,视场表示不是按比例缩放的。图3和图4显示了使用来自传感器套件的组合返回的示例可视化。
图2 自动驾驶汽车传感器覆盖图(范围不按比例)
图 3  自动驾驶汽车传感器数据可视化示例 —— 行人在前立体声摄像机以及激光雷达和雷达中很明显 ( 顶部图像中接近行人点云 “ 脚 ” 处 的深蓝色圆形图标 ) 。
图4 从更复杂的场景中可视化自动驾驶汽车传感器数据的例子:人行道上有行人,车道上有自行车。
 
相机
相机数据直接以LSHM(一个专有的共享内存框架)本机格式存储。从本地的LSHM图像数据中可以生成经过整流的PNG(便携式网络图形)文件,每个屋顶架相机的有效速率为25fps(工作频率为30赫兹,但由于处理和相机之间的帧对,会有一些损失),高分辨率中心相机的有效速率为5.3 Hz(工作频率为6赫兹)文件名对应于每组相机图像的触发信号的时间。
 
雷达
福特开发自动驾驶汽车配备了前向和后向ESR自动雷达,具有远程(174米)和中程(60米)模式。雷达数据以每50ms扫描64个航迹的速度在车辆的本地参考帧的本地轻量级通信和编组(LCM)日志文件中收集。LCM是一种用于消息传递和数据编组的协议,适用于高带宽、低延迟的实时应用程序。
 
激光雷达
数据也被收集与4个威力登 HDL32激光雷达单位收集10转每秒。这些数据在本地unix时间戳中显示,并投射到车辆本地帧中。
这些多感官可视化的屏幕捕获影片也将在开放源代码数据集中提供。
分享到:
 
反对 0 举报 0 收藏 0 评论 0
沪ICP备11026620号