不用深度学习,(行人检测 目标检测 )基于图像处理的人体粗略估计

目录

目录

一  基于腿部定位的粗略估计方法

二 基于头发定位位的粗略估计方法

三  基于图像图形二值化—+灰度投影法的结果

四 基于kmeans聚类分割+图像处理的结果

五  边缘检测+图像腐蚀操作等确定人体位置

背景

行人检测 目标检测 行人追踪是当前的热点

应用图像处理技术,结合计算机视觉可以得到目标检测和追踪的效果,目前比较流行的是深度学习,transfmer,MLP等方法

深度学习有CNN,SSD,yolo算法等,yolov1-yolov5都可以进行很好的目标检测,行人检测,目标追踪等问题,可以给大家带来很好的效果,目前主流的开发语言是python,基于pytocrh或者ztensorflow框架进行编程处理

当然比较流行的方法有 hogsvm  gaborsvm等,都在开始的时候广泛的应用到行人检测的方法中

但是最原始的基于图像处理技术还是很值得研究的,本文主要采取图像处理技术,进行行人检测的技术研究。

并且不断和持续的更新采取和探索的技术。


一  基于腿部定位的粗略估计方法

这是进行粗略估计的 结果

原始的视频是基于yolov5的结果

本文主要采取图像处理的结果

通过观察视频,可以看出小姐姐的肤色腿部很明显

那么根据图像处理的基本常识,首先定位到肤色,基于ycbcr的模型 得到粗略的分割模型 也就是杉树图中的第二幅图

然后对分割的图进行一系列的操作,比如闭运算等,得到第三幅图,并且画出来连通域

通过观察第三幅图的连通域,可以知道很多小的连通域也被标记出来,因此删除了很小的面积的,得到了第四幅图

通过第四幅图,可以看出在上册有一个横幅是在干扰我们的识别,因此对于长宽比在大于2的时候,将横幅屏蔽,因此屏蔽后的结果图如上述的第五幅图

根据第五幅图,那么定位到腿部,然后根据人体的比例,将外接矩形的坐标和长宽进行设计,得到最后估算的结果数据。。

通过调整参数和配置,得到的其他数据的结果如下

code的下载地址

不用深度学习,基于图像处理的人体粗略估计-统计分析文档类资源-优快云文库

二 基于头发定位位的粗略估计方法

方法为粗略的定位到头发

然后去除干扰区域

然后根据身体的特征,得到数据的结果

图 袁术图像

他 定位到头发区域

 粗略得到连通域

删除无关的连通域

根据体型得到粗略估计

得到原来的图像得到人体的估计

可以看出能粗略得到人体数据吧

其他数据的结果见

 

可以看出可以通过头发 粗略的得到数据

所有的试验原始图像来源于网络 如果有侵权,请联系作者删除

详细code见



(2条消息) 二基于头发定位位的粗略估计方法-其它文档类资源-优快云文库

---------------------2022.5.29-------

----------------------持续更新---------------------------

三  基于图像图形二值化—+灰度投影法的结果

持续更新

首选得到RGB 然后选择r通道做实验

对r通道,进行二值化

然后求求解得到灰度投影曲线,垂直投影和水平投影曲线

得到的结果如上所示

图 经过二值化翻转后的数据结果,可以看出,在第四个图像上,可以很明显的可以看出来人体的大概的卷度,因此对于人员的定位骐达了关键的作用

图 采取的第三个通道做的数据研究

图 当改变otsu的阈值时候,这时候的阈值是0.13.得到的数据结果如上所示 

 

阈值是0.53的数据结果

详细的code

二值化和灰度投影的人体定位系统-其它文档类资源-优快云文库

四 基于kmeans聚类分割+图像处理的结果

上述的图 第一个是kmeans的数据结果

这里聚类成三类,可以卡出第二个图像的数据较好,可以聚类很明显的区分出来

右侧的图,经过数据分析后,用二值化处理,加上膨胀操作,进一步得到了原始数据的边界框 ,得到人体

详细的code见

四基于kmeans聚类分割+图像处理的结果-其它文档类资源-优快云文库

五  边缘检测+图像腐蚀操作等确定人体位置

首选确定了candyB边缘检测

然后进行闭运算

进行闭运算后,进一步进行填充操作 

填充完毕,进一步进行imclose操作,求解外接矩形,得到最后的数据结果

当然选择其他的边缘检测时候

效果不是很好

 当采取soble算法,采取4次闭运算的时候结果,如上所示

当选择 prewitte算法的时候,得到的结果也不好

 

当选择log算子,并且最后进行区域面积筛选,得到的结果较好

详细的code见

基于边缘检测和图形处理的,人体区域定位和检测-机器学习文档类资源-优快云文库


### 基于深度学习的3D目标检测算法概述 在单目3D目标检测领域,存在多种基于深度学习的方法来提升检测精度和效率。这些方法主要分为三类:直接回归法、基于深度信息的方法以及基于点云信息的方法[^1]。 #### 直接回归法 这类方法利用卷积神经网络(CNNs)直接从未标注图像中预测物体的位置、尺寸及其朝向。该技术路线的优势在于不需要额外的数据处理步骤即可完成端到端的学习过程。然而,由于仅依赖二维视觉特征来进行三维空间定位,因此可能面临准确性不足的问题。 #### 基于深度信息的方法 为了提高估计精度,一些研究引入了深度传感器获取的距离数据作为辅助输入给定场景中的每个像素对应的实际距离值。通过融合RGB图片与深度图的信息,可以更精确地重建出被观测对象的空间结构,从而改善最终的结果质量。此方向上的工作通常涉及到如何有效地联合训练多模态感知模型并解决不同源之间存在的域差异问题[^2]。 #### 基于点云信息的方法 不同于前两种方式侧重于从传统相机视角出发解决问题,另一种思路则是充分利用激光雷达(LiDAR)等设备产生的稠密点集表示环境几何特性。此类方案能够提供更为丰富的形状描述符用于识别特定类型的障碍物或行人,并且不受光照条件变化的影响,在自动驾驶等领域展现出巨大潜力。不过,处理大规模稀疏分布的数据也带来了新的挑战,比如内存占用大、计算成本高等方面需要特别考虑。 针对上述各类别的具体实现细节和技术难点,学术界已经发表了一系列高质量的研究成果可供参考: - **Monocular 3D Object Detection via Deep Learning**: 提出了一个名为Mono3D的新框架,它能够在仅有单一摄像头的情况下准确地标记道路上行驶车辆的确切位置和姿态参数。项目主页提供了详细的实验设置说明及预训练权重文件下载地址。 - **Deep MANTA: A Coarse-to-Fine Many Task Network for Joint 2D and 3D Vehicle Trimming from Monocular Images**: 描述了一种新颖的设计理念——即采用粗略至精细的任务级联机制同时执行多个子任务(如分类、分割),进而达到更好的整体性能表现。GitHub仓库里包含了完整的PyTorch版本源码供开发者进一步探索优化可能性。 - **Pseudo-LiDAR++: Accurate Depth Map Prediction with Differentiable Adaptive Sampling**: 探讨了怎样借助可微分自适应采样策略生成逼真的伪LiDAR信号序列,以此增强现有纯视觉驱动型系统的鲁棒性和泛化能力。官方给出了TensorFlow平台下的演示实例帮助初学者快速入门理解核心概念。 关于r-fcn系列的工作进展值得注意的是,后续出现了诸如r-fcn-3000这样的改进版架构设计,旨在缓解原始版本中存在的因过多类别引起的高维度输出带来的效率低下状况。新提出的解决方案通过对原有PS RoI池化层内部操作做出调整简化了整个流程的同时保持甚至提升了原有的辨识效果[^3]。 ```python import torch.nn as nn class R_FCN_Improved(nn.Module): def __init__(self, num_classes=80, k_size=(7, 7)): super(R_FCN_Improved, self).__init__() # 定义改进后的 PS ROI Pooling 层 self.ps_roi_pool = PositionSensitiveRoIPooling(output_dim=num_classes * np.prod(k_size)) def forward(self, x): pooled_features = self.ps_roi_pool(x) return pooled_features ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

交通上的硅基思维

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值