24年3月,上海AI Lab联合香港科技大学、香港大学等发布Generalized Predictive Model for Autonomous Driving。作者提出了通用的大规模自动驾驶视频预测模型GenAD,在实现过程中,进一步提出了迄今为止最大的自动驾驶场景训练数据集OpenDV-2K。
OpenDV-2K数据集具有开放领域的多样性:地理位置,地形,天气条件,安全关键场景,传感器设置,交通要素等。
- 从YouTuber获取公开驾驶视频数据,然后使用VLM(如BLIP-2)模型的语言上下文来标注、描述每个帧。
- 手工过滤带某些关键字(如Words, Watermark, Dark, Blurry)的黑帧或扭曲的过渡帧。
- 对来自YouTuber的视频构建了两种类型的文本,Ego-vehicle的驾驶命令Command和帧上下文Context,分别帮助模型理解自车动作和周边其他智能体行为。对于命令Co