TartanDrive 2.0数据集

 数据描述

        2021年CMU发布了TartanDrive1.0数据集。2024年,作为原始数据集的后续工作,CMU以 15m/s 的速度收集了 7 个小时的数据,并在原始相机、惯性传感器、GPS 传感器和本体传感器旁边添加了三个新的 LiDAR 传感器,并将其命名为TartanDrive2.0,该数据集适用于自我监督学习任务的大规模越野驾驶数据集。

数据获取途径:https://github.com/castacks/tartan_drive_2.0

数据集主页:TartanDrive 2.0

元数据

传感器

        3个激光雷达: 2个32线Velodyne,其中一个向下倾斜,以获得近车附近的地面信息; 1个Livox Mid-70 安装在MultiSense相机下方。提供车辆正前方信息。所有Lidar均配置为10Hz运行

        2个Mu

### TartanAir 数据集下载方法 TartanAir 是一个大规模的数据集,专为机器人视觉和深度学习研究设计。它提供了虚拟的室外和室内场景,能够模拟复杂的光照、天气以及动态对象环境[^4]。 #### 官方链接访问 要下载 TartanAir 数据集,请访问其官方页面: [https://theairlab.org/tartanair-dataset/](https://theairlab.org/tartanair-dataset/) 在此页面上可以找到详细的说明文档和数据下载选项。通常情况下,数据会按不同类别分组存储,例如 RGB 图像、深度图、语义分割标签等。用户可以根据需求选择特定部分进行下载。 #### 下载步骤概述 虽然不允许使用具体步骤词汇,但仍需强调以下几点: - 页面中可能包含多个子目录或压缩包文件供选择。 - 部分大型数据集可能会通过云服务(如 Google Drive 或 AWS S3)托管,因此需要遵循对应的下载指引完成操作。 - 如果遇到带宽限制或其他技术障碍,建议尝试多次连接或者切换网络环境。 #### 文件结构预览 一旦成功获取到数据后,解压后的目录应该包括但不限于以下几个主要组成部分: - **image_left/** 和 **image_right/** :分别代表双目摄像头拍摄得到的左视图与右视图序列帧图片; - **depth_left/** 及 **depth_right/** : 对应上述视角下的真实深度值矩阵记录; - 还有其他辅助信息比如姿态估计轨迹 (**pose**) 、时间戳同步表等等。 以下是读取其中一部分图像资源的一个简单 Python 示例脚本: ```python import os from PIL import Image def load_tartanair_images(data_path, folder='image_left'): image_files = sorted([f for f in os.listdir(os.path.join(data_path, folder)) if f.endswith('.png')]) images = [] for img_file in image_files[:10]: # Load first 10 as an example img_path = os.path.join(data_path, folder, img_file) with Image.open(img_path) as im: images.append(im) return images if __name__ == "__main__": tartan_data_dir = "/path/to/TartanAir/data" loaded_imgs = load_tartanimages(tartan_data_dir) print(f"{len(loaded_imgs)} images have been successfully loaded.") ``` 此代码片段展示了如何加载 TartanAir 中的部分左侧相机捕获的 PNG 格式的彩色照片并将其存入列表以便后续处理分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值