自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 Attention Empowered Feature-levelRadar-Camera Fusion for Object Detection——论文阅读

对点云形式的雷达数据进行从鸟瞰视角到图像坐标系的域转换预处理。这些与来自相机的RGB图像一起作为我们提出的融合网络的输入,该融合网络独立提取每个传感器的特征。然后融合这些特征来执行联合检测。通过不同雾密度水平的综合雾化图像验证了在雾等不利条件下的鲁棒性。发现从2到3跳跃比较大 ,因此,评估了另一个版本的网络,该版本在两个分支(摄像机和雷达)上都只有第5次向下尺度之后才有融合块,称为BigScale,其性能与3Scale网络相同。1)对三次融合进行分开研究,分为3scale,2scale,1scale。

2022-12-13 18:15:18 338 3

原创 pytorch模型保存和加载

pytorch有两种模型保存方式:1.保存整个的的结构信息和模型参数信息,save的对象是网络net2.只保存神经网络的训练模型参数,save的对象是net.state_dict()1.加载整个模型这种保存/加载模型的过程使用了最直观的语法,所用代码量少。这使用Python的pickle保存所有模块。这种方法的缺点是,保存模型的时候,的数据被绑定到了特定的类和确切的目录。这是因为pickle不保存模型类本身,而是保存这个类的路径,并且在加载的时候会使用。一般来说,的模型以.pt或者.pth文件格式保存。

2022-12-01 17:56:19 2973

原创 create_imagep_visualization

此时image_data是450*450*3的,后面的三表示取出的rgb三个通道,也就是复制了前三个通道.有的话,是image_plus_data对应要取出的距离通道,450*450。首先如果没有cfg,是一个0矩阵,450*450,取了前两个维度。就是将radar_img转化为unit8,首先是一个0矩阵,450*450*3。

2022-11-07 15:26:04 190

原创 attention 机制

一、注意力机制来源正常来说,我们在使用深度学习encoder-decoder框架的时候,使用的非线性变换方式都是没有偏重的,也就是对所有的输入都同等看待:对于句子对,我们的目标是给定输入句子Source,期待通过Encoder-Decoder框架来生成目标句子Target。Source和Target可以是同一种语言,也可以是两种不同的语言。而Source和Target分别由各自的单词序列构成:Encoder顾名思义就是对输入句子Source进行编码,将输入句子通过非线性变换转化...

2022-06-23 16:00:28 358

原创 综述笔记——A Review of Vehicle Detection Techniques forIntelligent Vehicles

本文全面回顾了车辆检测方法及其在智能车辆系统中的应用,分析了车辆检测的发展,重点介绍了传感器类型和算法分类。首先,本文总结了300多项研究成果,包括各种车辆检测传感器(机器视觉、毫米波雷达、激光雷达和多传感器融合),并详细比较了经典算法和最新算法的性能。然后,根据不同传感器和算法的性能和适用性,分析了它们在车辆检测中的应用场景。此外,我们还系统地总结了恶劣天气下的车辆检测方法。最后,根据智能车辆传感器和算法的发展,分析了存在的挑战和未来的研究趋势。...

2022-06-06 17:30:13 1198 1

原创 毫米波雷达相机融合综述——MmWave Radar and Vision Fusion for ObjectDetection in Autonomous Driving: A Review

该论文是北京邮电大学2022年关于毫米波雷达和摄像头融合的一篇综述摘要:随着自主驾驶的蓬勃发展,复杂场景下的精确目标检测受到广泛关注,以确保自主驾驶的安全。毫米波雷达和视觉融合是实现精确障碍物检测的主流解决方案。本文详细介绍了基于毫米波雷达和视觉融合的障碍物检测方法。首先,我们介绍了自动驾驶目标检测的任务、评估标准和数据集。然后,将毫米波雷达与视觉融合的过程分为传感器部署、传感器标定和传感器融合三个部分,并对这三个部分进行了综合评述。具体来说,我们将融合方法分为数据级、决策级和特征级融合方法。

2022-06-01 17:26:23 4467

原创 CRF(radar camera fusion)雷达摄像头融合网络论文解读

一.网络结构1.主干部分为VGG与FPN:FPN:解释一下FPN:利用FPN构建Faster R-CNN检测器步骤 首先,选择一张需要处理的图片,然后对该图片进行预处理操作; 然后,将处理过的图片送入预训练的特征网络中(如ResNet等),即构建所谓的bottom-up网络; 接着,如图5所示,构建对应的top-down网络(即对层4进行上采样操作,先用1x1的卷积对层2进行降维处理,然后将两者相加(对应元素相加),最后进行3x3的卷积操作,最后);...

2022-05-30 17:25:58 1552

原创 三.语义分割

一.FCN与经典CNN在卷积层使用全连接层得到固定长度的特征向量进行分类不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷基层的特征图(feature map)进行上采样,使它恢复到输入图像相同的尺寸,从而可以对每一个像素都产生一个预测,同时保留了原始输入图像中的空间信息,最后奇偶在上采样的特征图进行像素的分类。如下图所示:1.三种上采样方式:双线性插值,反卷积,反池化,其中反卷积可以训练.1)双线性插值2)反卷积其重点为转置卷积操作,详情为:转置卷积反卷积..

2022-05-03 11:45:04 737

原创 二.感受野

举例子:两个3*3的=一个5*5的:计算公式:r是感受野;k是卷积核大小,s是步长。根据公式求一下上面的例子:r1=3(第一步没啥公式)r2 = r1 + (k2-1)s1=3+(2-1)x 2=5总结一下:小与大的卷积核,在stride差不多的情况下,参数量是差不多的,但是大卷积核的计算量大的多,因此用多个小卷积核代替大卷积核具有不错的效果,其非线性也更好....

2022-04-25 21:22:00 141

原创 经典网络---VGG

1.VGG和Alex相比:1)用两个3*3的卷积核代替原来的5*5,这样具有相同的感受野,却有更好的非线性,能够有更好的学习能力,并且计算量更小.2)提出VGG块,让其到今天都具有很多的应用,即迁移学习.2.后来提出的NINI网络,用1*1的卷积核代替最后的全链接:后面介绍上文写的感受野以及迁移学习...

2022-04-25 21:14:08 261

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除