💥💥💞💞欢迎来到本博客❤️❤️💥💥
🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。
⛳️座右铭:行百里者,半于九十。
📋📋📋本文目录如下:🎁🎁🎁
目录
💥1 概述
物体检测是计算机视觉领域的一项重要任务,基于其新兴应用(如视频监控和行人检测)在过去 2 年中备受关注。在这项研究中,我们使用 Caltech101、PASCAL 3D 和 3D 数据集等三个著名数据集处理复杂的目标检测和分类。这些数据集包含数百个对象类和数千个图像。为了应对这些数据集挑战,我们提出了一种基于DCNN特征提取和SIFT点的目标检测和分类新方法。所提出的方法由两个主要步骤组成,这两个步骤并行执行。第一步,从映射的RGB分割对象中提取SIFT点特征。然后,在第二步中,从预先训练的深度模型(如 AlexNet 和 VGG)中提取 DCNN 特征。SIFT点和DCNN特征通过融合方法组合在一个矩阵中,随后用于分类。下面给出了每个步骤的详细说明。此外,所提方法的流程图如图1所示
1.1 使用改进的显著性方法进行分割
1.2 SIFT特点
SIFT 特征的计算分四个步骤进行。在第一步中,确定对给定图像重要且稳定的局部关键点。特点 从解释局部图像区域样本的每个关键点中提取,这些样本与其尺度空间坐标图像相关。然后,在第二步中,通过特定的阈值删除弱特征。在第三步中,根据局部图像梯度方向为每个关键点分配方向。最后,得到1x128维特征向量,并进行双线性插值,提高特征的鲁棒性
1.3 深度 CNN 功能
在本文中,我们采用了两个预先训练的深度 CNN 模型,例如 VGG19 和 AlexNet,它们用于特征提取。这些模型包含卷积层、池化层、归一化层、ReLu 层和 FC 层。如上所述,卷积层从 图像
1.4 特征提取

1.5 最大池化

1.6 功能选择
在这种方法中,我们采用了基于熵的特征选择来减少提取的特征。

1.7 Featre 融合
我们采用了基于串行的特征融合
π(熔融) = (N × 1000) + (N × 1000) + (N × 100) Π(熔融) = N × fi
最终特征向量的大小为 1 × 2100,提供给集成分类器进行分类。集成分类器是一种监督学习方法,需要训练数据进行预测。集成方法将多个分类器数据组合在一起,以生成更好的系统
📚2 运行结果


部分代码:
img=imread(imgname);
img=imresize(img,[row,colum]);
img=rgb2gray(img);
% img=histeq(img);
img=im2double(img);
origin=img;
% img=medfilt2(img);
toc
%% Scale-Space Extrema Detection
tic
% original sigma and the number of actave can be modified. the larger
% sigma0, the more quickly-smooth images
sigma0=sqrt(2);
octave=3;%6*sigma*k^(octave*level)<=min(m,n)/(2^(octave-2))
level=3;
D=cell(1,octave);
for i=1:octave
D(i)=mat2cell(zeros(row*2^(2-i)+2,colum*2^(2-i)+2,level),row*2^(2-i)+2,colum*2^(2-i)+2,level);
end
% first image in first octave is created by interpolating the original one.
temp_img=kron(img,ones(2));
temp_img=padarray(temp_img,[1,1],'replicate');
figure(2)
subplot(1,2,1);
imshow(origin)
%create the DoG pyramid.
for i=1:octave
temp_D=D{i};
for j=1:level
scale=sigma0*sqrt(2)^(1/level)^((i-1)*level+j);
p=(level)*(i-1);
figure(1);
subplot(octave,level,p+j);
f=fspecial('gaussian',[1,floor(6*scale)],scale);
L1=temp_img;
if(i==1&&j==1)
L2=conv2(temp_img,f,'same');
L2=conv2(L2,f','same');
temp_D(:,:,j)=L2-L1;
imshow(uint8(255 * mat2gray(temp_D(:,:,j))));
🎉3 参考文献
文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。
[1]宁方鑫.基于卷积神经网络的水上目标检测方法研究[D].武汉理工大学[2023-11-07].DOI:CNKI:CDMD:2.1019.809481.
[2]贠卫国,史其琦,王民.基于深度卷积神经网络的多特征融合的手势识别[J].液晶与显示, 2019, 34(4):6.DOI:CNKI:SUN:YJYS.0.2019-04-013.
本文介绍了一种结合改进显著性方法和深度卷积神经网络(DCNN)特征的物体检测与分类方法。通过SIFT特征提取、DCNN特征提取以及特征融合,该方法在Caltech101、PASCAL3D等数据集上展示了有效性能。


945

被折叠的 条评论
为什么被折叠?



