[快速阅读十] 浮点数据的中值模糊及其优化方法。

  昨天实现了16位unsigned short数据的高效中值模糊算法,后面就在想其实我还有一个中值算法一直没有想到好的解决方案,那就是浮点数的中值,这个在某些场合还是有较高的应用价值的。

  同样,3*3或者5*5的浮点中值可以直接实现,而且效率一样非常高。

  其他半径的了,怎么办,浮点数嘛,不能使用直方图,而且数据范围也很广,不像8位或者16位数据范围都是有限的。这两个问题我一直没有想到解决之道。

         在【16位RAW图像处理五】任意位深16位图像的中值模糊快速实现及其应用  一文中看到了解析了Gimp的median_blur实现,文章最后我们提到了GIMP里用了排序获取局部图像的实际使用的色阶数以及对原始色阶做压缩处理,在哪里这个压缩主要是为了提高速度,一切看起来都是那么的自然,我在文章里提了另外一个不用排序就可以快速的实现同样功能的方法,从而避免了排序这个较为缓慢的过程。

  但是浮点数无法直接使用直方图进行统计,那个快速方法就无法使用的。

  可是,我们如果还是回到排序上去,我们把局部的浮点数进行排序,然后进行同样的编号,编号后的数据不就是整形数了吗,如果对这些整形数进行中值计算,得到的中值不就是真正的中值在浮点有序数列中的索引吗,这样不就可以借助整形数据的中值算法进行浮点的中值计算了吗。

  同样举个例子,10个浮点数,他们的值分别为:

     1.2      100.3    2000.2    150.1    100.3    40000.5    350.7    1.2    2000.2    300.6      5000.2

  排序去重后,得到的数据序列如下:

     1.2    100.3         150.1     300.6    350.7    2000.2    5000.2  40000.5

  10个浮点数对应的编号为:

     0      1         5         2     1      7       4      0       5      3     6 

  然后把这个编号理解为需要排序的数据,进行中值排序,得到的中值数据为3,这个3即为索引值,在排序去重的数据列,找到索引为3的值,即300.6作为最终的中值。

  这样,16位排序算法里后续用到的技巧都可以直接用在浮点数上。

  问题迎刃而解了。

  细节:

    1、测试了GIMP提供的排序算法,然后使用标准的qsort排序,似乎GIMP的排序要更快。

    2、GIMP里获取浮点数对应的编号的代码部分技巧也是不错的,可以参考参考。

  速度测试:

    使用随机生成的浮点数做测试,3072*3072的数据,半径25,耗时约为1500ms,如果使用多线程,在现在的4个物理核心上普通CPU上,也能有500ms的速度。

    使用稍微有点重复数据的数据集做测试,一般大概需要1000ms左右的耗时,开启线程可以得到300ms的速度。 

【unet改进实战】基于unet+SCSE注意力机制改进实现的【自动驾驶】图像语义分割+项目说明书+数据集+完整代码 项目概述 本项目基于PyTorch框架构建了一个通用图像分割系统,全面支持二分类及多类别分割任务。 系统功能 该系统提供从数据预处理到模型训练、验证评估的全流程解决方案,具备高度可配置性和实用性: 数据处理:支持自定义图像和掩码文件格式(如.jpg、.png等),自动处理不连续标签值,集成多种数据增强技术提升模型泛化能力 模型架构:基于UNet实现,可通过参数灵活调整输入尺寸、卷积通道数等,兼容不同类别数量的分割任务(通过--num_classes参数指定) 训练功能:支持GPU加速,提供学习率、批次大小等超参数配置选项,实时记录损失曲线和评估指标(如IoU、Dice系数),自动保存最优模型权重 使用流程 按规范组织数据集(图像与掩码文件需名称对应,分别存放在images/masks子目录) 通过命令行参数启动训练,可指定: 数据路径(--data_dir) 学习率(--learning_rate) 标签映射规则(--label_mapping)等 系统输出包含: 模型权重文件(.pth) 训练曲线可视化图表 指标日志文件 注意事项 掩码图像应为单通道灰度图,标签值为整数 多分类任务推荐使用one-hot编码掩码 项目依赖主流科学计算库(PyTorch、NumPy)及可视化工具(Matplotlib),安装简便 应用领域 该系统适用于医学影像、遥感等领域的语义分割任务,兼顾易用性与扩展性。用户可通过调整UNet深度或添加注意力机制等方式进一步优化性能。 【项目说明书】包含完整代码实现与原理讲解。https://blog.youkuaiyun.com/qq_44886601/category_12858320.html
内容概要:本文详细介绍了一个基于Python实现的PSO-PNN混合模型项目,旨在通过粒子群优化算法(PSO)优化概率神经网络(PNN)的关键参数(如平滑因子),从而提升数据分类预测的精度与泛化能力。文章阐述了项目背景、目标与意义,分析了在高维复杂数据、样本不均衡、噪声干扰等挑战下的解决方案,并系统介绍了整体架构,包括数据预处理、PSO优化模块、PNN分类模型、适应度函数设计、并行计算优化及性能评估等核心组成部分。文中还提供了关键代码示例,展示了从数据标准化、模型构建到优化训练和性能评估的完整流程。; 适合人群:具备一定Python编程和机器学习基础,从事数据分析、智能算法研究或工程应用的研发人员、研究生及算法爱好者;尤其适合希望深入了解智能优化算法与神经网络融合应用的中级学习者。; 使用场景及目标:①解决PNN模型依赖人工调参的问题,实现平滑因子的自动优化;②提升复杂、高维、小样本或不均衡数据下的分类准确率;③应用于金融风控、医疗诊断、工业故障检测等高精度分类场景;④学习PSO与PNN协同机制及其工程实现方法。; 阅读建议:建议结合文中提供的代码示例与理论描述同步实践,重点关注适应度函数设计、PSO参数配置与交叉验证的集成,调试时注意收敛性与过拟合控制,以深入掌握该复合模型的优化逻辑与应用技巧。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值