不同iable联合条件预测和成本评估的树策略规划(DTPP)项目教程
1. 项目介绍
DTPP(Differentiable Tree Policy Planning)是一个用于自动驾驶领域的研究项目,旨在通过可微分的方法进行联合条件预测和成本评估的树策略规划。该项目由南洋理工大学、NVIDIA Research和斯坦福大学的研究人员共同开发,并在ICRA 2024论文中进行了详细介绍。DTPP利用nuPlan数据集,通过深度学习技术来优化自动驾驶车辆的路径规划。
2. 项目快速启动
环境配置
在开始之前,请确保你已经下载并配置了nuPlan数据集及其开发套件。以下是设置开发环境的步骤:
-
克隆DTPP仓库:
git clone https://github.com/MCZhi/DTPP.git && cd DTPP -
激活安装nuPlan开发套件时创建的环境:
conda activate nuplan -
安装PyTorch:
conda install pytorch==2.0.1 pytorch-cuda=11.7 -c pytorch -c nvidia -
将以下环境变量添加到你的
~/.bashrc文件中(可根据需要自定义):export NUPLAN_EXP_ROOT="$HOME/nuplan/exp"
数据处理
在训练DTPP模型之前,需要预处理nuPlan数据集:
python data_process.py \
--data_path nuplan/dataset/nuplan-v1.1/splits/val \
--map_path nuplan/dataset/maps \
--save_path nuplan/processed_data
训练模型
开始训练模型:
python train.py \
--train_set nuplan/processed_data/train \
--valid_set nuplan/processed_data/valid
可以通过--train_epochs、--batch_size和--learning_rate等参数来自定义训练过程。
测试
在nuPlan模拟场景中测试DTPP规划框架:
python test.py \
--test_type closed_loop_nonreactive_agents \
--data_path nuplan/dataset/nuplan-v1.1/splits/test \
--map_path nuplan/dataset/maps \
--model_path base_model.pth \
--load_test_set
选择--test_type的选项('open_loop_boxes'、'closed_loop_nonreactive_agents'、'closed_loop_reactive_agents'),并指定训练好的模型路径--model_path。
确保planner.py中的模型参数与训练时使用的参数一致。
3. 应用案例和最佳实践
DTPP项目的应用案例主要集中在自动驾驶的路径规划方面。最佳实践包括确保数据处理、模型训练和测试过程中的参数一致性,以及遵循项目文档中的指导步骤。
4. 典型生态项目
DTPP项目是基于nuPlan数据集开发的,与nuPlan生态系统紧密相关。其他类似的生态项目可能包括用于自动驾驶的其他路径规划算法、预测模型以及与nuPlan兼容的工具和库。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



