不同iable联合条件预测和成本评估的树策略规划(DTPP)项目教程

不同iable联合条件预测和成本评估的树策略规划(DTPP)项目教程

1. 项目介绍

DTPP(Differentiable Tree Policy Planning)是一个用于自动驾驶领域的研究项目,旨在通过可微分的方法进行联合条件预测和成本评估的树策略规划。该项目由南洋理工大学、NVIDIA Research和斯坦福大学的研究人员共同开发,并在ICRA 2024论文中进行了详细介绍。DTPP利用nuPlan数据集,通过深度学习技术来优化自动驾驶车辆的路径规划。

2. 项目快速启动

环境配置

在开始之前,请确保你已经下载并配置了nuPlan数据集及其开发套件。以下是设置开发环境的步骤:

  1. 克隆DTPP仓库:

    git clone https://github.com/MCZhi/DTPP.git && cd DTPP
    
  2. 激活安装nuPlan开发套件时创建的环境:

    conda activate nuplan
    
  3. 安装PyTorch:

    conda install pytorch==2.0.1 pytorch-cuda=11.7 -c pytorch -c nvidia
    
  4. 将以下环境变量添加到你的~/.bashrc文件中(可根据需要自定义):

    export NUPLAN_EXP_ROOT="$HOME/nuplan/exp"
    

数据处理

在训练DTPP模型之前,需要预处理nuPlan数据集:

python data_process.py \
--data_path nuplan/dataset/nuplan-v1.1/splits/val \
--map_path nuplan/dataset/maps \
--save_path nuplan/processed_data

训练模型

开始训练模型:

python train.py \
--train_set nuplan/processed_data/train \
--valid_set nuplan/processed_data/valid

可以通过--train_epochs--batch_size--learning_rate等参数来自定义训练过程。

测试

在nuPlan模拟场景中测试DTPP规划框架:

python test.py \
--test_type closed_loop_nonreactive_agents \
--data_path nuplan/dataset/nuplan-v1.1/splits/test \
--map_path nuplan/dataset/maps \
--model_path base_model.pth \
--load_test_set

选择--test_type的选项('open_loop_boxes'、'closed_loop_nonreactive_agents'、'closed_loop_reactive_agents'),并指定训练好的模型路径--model_path

确保planner.py中的模型参数与训练时使用的参数一致。

3. 应用案例和最佳实践

DTPP项目的应用案例主要集中在自动驾驶的路径规划方面。最佳实践包括确保数据处理、模型训练和测试过程中的参数一致性,以及遵循项目文档中的指导步骤。

4. 典型生态项目

DTPP项目是基于nuPlan数据集开发的,与nuPlan生态系统紧密相关。其他类似的生态项目可能包括用于自动驾驶的其他路径规划算法、预测模型以及与nuPlan兼容的工具和库。

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值