【深度学习】- 作业5: Didi交通场景-车辆预测

文章介绍了清华大学的驭风计划,涵盖了机器学习、深度学习等课程。在深度学习部分,讲解了如何使用FasterR-CNN模型进行目标检测,数据集来源于滴滴出行的D2-City,模型评估采用mAP指标。还提供了参考程序和实验结果,比较了不同模型的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

课程链接: 清华大学驭风计划

代码仓库:Victor94-king/MachineLearning: MachineLearning basic introduction (github.com)


驭风计划是由清华大学老师教授的,其分为四门课,包括: 机器学习(张敏教授) , 深度学习(胡晓林教授), 计算机语言(刘知远教授) 以及数据结构与算法(邓俊辉教授)。本人是综合成绩第一名,除了数据结构与算法其他单科均为第一名。代码和报告均为本人自己实现,由于篇幅限制,只展示任务布置以及关键代码,如果需要报告或者代码可以私聊博主



机器学习部分授课老师为胡晓林教授,主要主要通过介绍回归模型,多层感知机,CNN,优化器,图像分割,RNN & LSTM 以及生成式模型入门深度学习


有任何疑问或者问题,也欢迎私信博主,大家可以相互讨论交流哟~~



任务介绍

1.数据简介

本次案例将使用深度学习技术来完成城市交通场景下的目标检测任务,案例所使用的数据集由滴滴出行提供,基于D 2 -City大规模行车记录视频数据集 [1] ,经过视频抽帧等预处理步骤得到。数据集共包含12,000张图像,每张图像的大小为1080×1920或720×1280,已划分为训练集(10,000张)、验证集(1,000张)、测试集(1,000张),其中训练集和验证集提供了检测标签,测试集仅提供图像,用于提交后测试模型效果。本数据集共包含12个待检测的物体类别,包括小汽车、公交车、自行车、行人等,具体定义及示例如图1所示。本任务的目标是在给定的交通场景图像中,尽可能完整、准确地检测出所有要求的物体,检测结果示例如图2所示。关于数据的更多细节可参考D 2 -City文献 [ 1] .

为了方便使用,数据集的标注信息已被预处理成MS-COCO格式,MS-COCO是通用物体检测领域最常用的数据集,如需深入理解数据集格式,请自行学习:MS-COCO数据集官网 ^[^  ^2]^ 、MS-COCO数据集文献 ^[^  ^3]^ 、MS-COCO标注格式 ^[^  ^4]^ . 模型的评估指标也使用MS-COCO常用指标mAP(mean average precision),请自行学习其定义及计算方式(无需自己实现):mAP定义 ^[^  ^5]^ ,mAP计算方式 ^[^  ^6][7]^ 。


2. 参考程序及使用说明

本次案例提供了完整、可供运行的参考程序,选取了带FPN ^[8]^ 结构的Faster R-CNN ^[9]^ 模型,基于MMDetection物体检测框架 ^[^  ^10]^ 实现,各程序简介如下:

lfaster_rcnn_r50_fpn_1x_didi.py为模型配置文件,安装MMDetection后置于mmdetection/configs/faster_rcnn路径下;

ldidi_detection.py为数据集配置文件,置于mmdetection/configs/base/datasets路径下,并将data_root变量修改为数据集所在路径;

ldidi_demo.ipynb用于可视化模型的检测结果。



报告

核心代码

结果

本次实验对照了fasterRcnn , cascade 以及yolov3, mMAP随着epoch曲线如下

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-W9oIRHii-1684512160753)(image/hw5/1684512090274.png)]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

曼城周杰伦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值