DrivingDojo是中国科学院自动化研究所与美团无人车团队合作推出的数据集,用在训练和研究复杂的自动驾驶交互式世界模型。数据集包含18,000个视频片段,覆盖完整的驾驶操作、多智能体交互以及丰富的开放世界驾驶知识,为开发下一代自动驾驶模型提供了坚实的基础。DrivingDojo定义了动作指令跟随(AIF)基准,用在评估世界模型在执行动作控制的未来预测方面的能力。
DrivingDojo的主要功能交互式世界模型训练:DrivingDojo提供一个平台,用在训练理解和模拟复杂驾驶动态的交互式世界模型。动作指令跟随(AIF):数据集定义AIF基准,评估世界模型在遵循动作指令生成未来预测的能力。多样化驾驶操作:基于DrivingDojo-Action子集,模型学习加速、减速、紧急制动和车道变换等多样化的驾驶操作。多智能体交互:用DrivingDojo-Interplay子集,模型能理解和预测车辆与其他道路使用者之间的复杂交互。开放世界知识:用DrivingDojo-Open子集,模型学习处理开放世界中的罕见事件和长尾场景。视频生成与预测:模型基于初始帧和动作指令生成未来的视频,模拟和预测驾驶场景。DrivingDojo的技术原理数据收集:用美团无人车团队的自动驾驶车辆平台收集视频数据,。数据策划:从大量收集的数据中精选出包含丰富驾驶操作、多智能体交互和开放世界知识的视频片段。动作编码:将驾驶动作(如加速、制动、转向)编码为模型能理解的格式,方便在视频生成中使用。视频生成模型:基于如Stable Video Diffusion等技术,开发从初始帧和动作指令生成视频的模型。动作指令跟随(AIF):比较生成视频与输入动作指令的一致性,评估模型的预测准确性。评估指标:用FID(Frechet Inception Distance)和FVD(Frechet Video Distance)等指标评估生成视频的视觉质量,用AIF错误评估动作指令的跟随能力。DrivingDojo的项目地址项目官网:drivingdojo.github.ioGitHub仓库:https://github.com/Robertwyq/DrivingdojoHuggingFace模型库:https://huggingface.co/datasets/Yuqi1997/DrivingDojoarXiv技术论文:https://arxiv.org/pdf/2410.10738DrivingDojo的应用场景自动驾驶算法开发:研究人员开发和测试自动驾驶车辆的感知、预测和决策算法。世界模型训练:数据集用在训练模拟真实世界驾驶环境的交互式世界模型,模型能预测未来的状态和可能的事件。多智能体交互模拟:模拟车辆与其他道路使用者(如行人、自行车、其他车辆)之间的交互,优化自动驾驶车辆的交互策略。罕见事件和长尾场景处理:训练模型识别和响应罕见事件,如动物突然横穿道路或道路上的障碍物,提高自动驾驶系统的安全性。虚拟测试和验证:在虚拟环境中测试自动驾驶系统,减少实车测试的成本和风险,加速开发流程。
上一篇