自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 农田植被目标检测数据标注与模型训练总结3

针对本次标注工作及YOLOv5模型训练中发现的问题,后续将从三个维度推进优化:一是优化标注流程提升效率,引入半自动化标注工具,利用预训练YOLOv5模型生成初步标注框,再由人工进行精准修正,减少重复标注工作量;同时加强标注人员专项培训,提升复杂场景下的标注熟练度。同时,完成标注标签的格式适配转换,将Labelme导出的JSON格式统一转换为YOLOv5所需的TXT格式,并生成数据集配置文件,明确类别数量、类别名称及数据路径等关键参数,相关处理后的数据均同步至共享网盘,便于模型训练环节的快速调用。

2025-12-21 12:51:01 405

原创 农田植被目标检测数据标注与模型训练总结2

针对该问题,在训练参数中对含空格的路径添加英文双引号包裹,确保路径作为一个整体被脚本正确解析,最终解决参数解析异常问题。2.格式适配环节:由于 YOLOv5 模型仅支持 TXT 格式的标签输入(要求包含归一化坐标与类别索引),针对 JSON标签格式不兼容的问题,编写自定义转换脚本,实现 JSON 标签中像素坐标到归一化坐标的自动换算、类别名称到索引的映射,同时完成格式结构的批量转换,确保转换后的 JSON 标签完全符合 YOLOv5 模型的输入规范,无坐标越界、索引错误等问题。

2025-12-04 20:11:00 654

原创 农田植被目标检测数据标注与模型训练总结1

为确保标注质量与模型泛化能力,数据筛选遵循以下原则:优先选择彩色图像进行标注(黑白图像暂不纳入首期标注范围),剔除完全重复或画面模糊、目标不清晰的图像,最终筛选出 100-200 张有效图像作为首期标注数据集,满足模型初期训练的数据需求。标注过程中,需准确框选目标区域,保证标注边界与实际目标轮廓贴合,避免漏标、误标或重复标注,确保标注数据的准确性与有效性,为模型训练提供高质量的监督信号。本项目通过无人机农田图像标注与 YOLOv5 模型训练,实现了农田与植被的自动化分类识别,为精准农业提供了核心技术支撑。

2025-11-29 13:05:57 771

原创 关于共享网盘的创建以及YOLOv5综述

量级分为n(轻量化)、s、m、l、x五类,参数规模与检测精度正相关,速度负相关,轻量化模型(n/s)适配实时检测场景,大容量模型(l/x)适合高精度需求场景;共享网盘作为数字化时代文件存储、协作与分发的核心工具,凭借云端存储、跨端同步、权限可控的核心优势,已深度融入个人办公、团队协作、学术科研、项目管理等多元场景,不仅彻底改变了传统 U 盘拷贝、邮件传输等方式的低效与局限,更有效破解了多场景下文件传输混乱、版本迭代丢失、权限管控薄弱、跨地域协作不便等痛点。二、YOLOv5模型下载全流程。

2025-11-20 20:48:53 407

原创 YOLOv5植物模型开发综述

YOLOv5 作为当前主流的目标检测框架,凭借其高效的检测速度与出色的精度表现,成为植物识别任务的优选方案。本项目将围绕 “仙人掌、松树” 等植物类别展开目标检测模型的开发,整体流程可分为模型准备、数据处理、模型训练、推理验证四大核心环节,通过分工协作与技术拆解,实现从基础框架到定制化植物识别的全流程落地。3.数据集划分:将标注好的数据按 “训练集:验证集 = 8:2” 的比例划分,训练集用于模型参数更新,验证集用于监控训练过程中的过拟合情况(如前文所述验证集需包含各类别关键特征且不与训练集重复)。

2025-11-13 21:33:41 684

原创 关于MMDetection综述

目标检测模型基于卷积神经网络构建,通过“特征提取-候选框生成-类别与位置预测”的流程,实现对多目标的实时识别。获取视频资源后,目标检测技术可实现对视频中行人、车辆、交通灯等物体的识别与定位,是计算机视觉在智能监控、自动驾驶等领域的关键应用。,提取视频流地址后进行下载,避免了手动操作的繁琐,为后续视频分析提供了高效的资源获取途径。四、这种整合不仅体现了工具链的协同价值,更展示了多媒体技术与计算机视觉的融合趋势—— 从单纯的资源获取,到对资源的深度语义理解,技术的迭代正不断拓展着数字内容的应用边界。

2025-11-08 12:48:08 264

原创 MMDetection 与计算机视觉顶会(CVPR/ICCV/ECCV)目标检测技术发展综述

会议收录论文的内容包括:底层视觉与感知,颜色、光照与纹理处理,分割与聚合,运动与跟踪,立体视觉与运动结构重构,基于图像的建模,基于物理的建模,视觉中的统计学习,视频监控,物体、事件和场景的识别,基于视觉的图形学,图片和视频的获取,性能评估,具体应用等。ICCV是计算机视觉领域最高级别的会议,会议的论文集代表了计算机视觉领域最新的发展方向和水平。MMDetection 作为连接顶会学术创新与产业应用的桥梁,通过三大核心能力推动顶会技术的工程化落地:1.算法的标准化集成、工程化工具链完善、社区生态协同。

2025-10-31 21:07:50 630

原创 计算机视觉目标检测主流开源工具与模型综述

不仅支持多样的目标检测算法,还支持自定义数据集和模型训练,为研究者和工程师提供了一个强大的工具,能快速实现目标检测模型的开发、训练和部署。一方面,它模型覆盖全面,集成超百种锚框与无锚框检测/分割模型(如SSD、DETR等),支持CVPR、ICCV、ECCV等顶会成果的直接复现,同时工具链高度工程化,通过`mim`工具可一键完成预训练模型下载与全流程任务(数据预处理、训练、部署等),实现了科研(小样本实验、自定义模块)与工业(模型压缩、边缘部署)的无缝衔接;主要特点包括高性能、易于使用、模块化设计。

2025-10-24 19:45:26 729

原创 基于YOLOv5学习综述

模型集成指将多个机器学习模型组合在一起,以提高预测的准确性和稳定性的技术。GloU解决了loU在处理不相交边界框时的局限性,CloU进一步考虑边界框的中心点距离、宽高比等因素,使边界框回归更精准,让模型在训练过程中能更高效的学习目标位置等信息。YOLOv5 借助进化算法优化超参数(hyp),基于训练时的超参数确定基准超参数并进行突变,通过之前进化结果确定各超参数权重,有 “single”(随机选一个超参数作为基准)和 “weighted”(融合所有超参数得到基准)两种进化方式,进化结果记录在。

2025-10-16 21:15:10 268

原创 YOLOv5学习综述

而在检测速度方面,前传耗时体现模型前向推理的时间成本,每秒帧数FPS(Frames Per Second)表示单位时间内模型可处理的图像数量,浮点运算量(FLOPS)反映模型计算复杂度,这些指标共同用于评估模型在实际应用中的高效性,是处理一张图像所需要的浮点运算数量,跟具体软硬件没有关系,可以公平的比较不同算法之间的检测速度。目标框回归技术 在 YOLOv5 中,锚框给出目标宽高的初始值,目标框回归的核心是求解目标真实宽高与初始宽高的偏移量,同时确定预测框在图像中的位置。二、YOLO算法的基本思想。

2025-09-26 10:42:06 597

原创 第一周学习综述

接着入门目标检测与分割,了解YOLOv5中锚框、迁移学习、loU的概念,通过观察输出的分割图,发现没有识别出“植物”类别。目标检测算法通常会在输入图像中抽样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边界,从而更准确的预测目标的真实边界框。卷积网络作为人工神经网络的核心类别,通过卷积层使用可学习的滤波器对输入的数据进行特征的提取。池化层通常位于卷积层之后,其主要功能是对特征图进行下采样,从而减小特征图的空间尺寸,减少参数量和计算量,同时保留重要的特征信息。5.过拟合与欠拟合的判断。

2025-09-11 20:25:57 651

原创 李宏毅机器学习综述

假设真实数据和生成数据的两个分布,都是从高斯分布中抽样得到的,计算两个高斯分布之间的Frechet Distance,越小代表分布越接近,图片品质越高。利用这种架构,强迫你的generator输出的Y domain的图片,跟输入的X domain的图片,有一些关系,保证转换的一致性和合理性,避免生成与输入无关的“无意义”图像。未来,结合强化学习、自主监督学习等技术优化训练,拓展多模态、跨领域应用,探索GAN与其他模型的融合,将推动其在更多场景落地,为人工智能生成任务提供更高效、更加创造力的解决方案。

2025-07-03 15:10:45 425

原创 李宏毅机器学习综述

GAN基本训练流程:Step1:固定G,训练D(用真实图像标记为1,生成图像标记为0,训练D去区分真假图,相当于做二分类任务)Step2:固定D,训练G(用D的输出作为“评分”,反向传播优化G,G要尽量输出能让D打高分的图像,技术上是通过gradient ascent/descent来调整G的参数)循环训练G、D不断优化。Pooling本身没有参数,是一个运算符,它的行为都是固定好的,每一个Filter都产生一把数字,要做Pooling时就把这些数字几个组一组,然后Pooling。2.2理解CNN模型。

2025-06-26 15:55:26 1665

原创 本周综述

在深度学习领域,模型的训练与优化是实现高性能人工智能应用的核心环节。本文将围绕基于“我是土堆”现有网络模型的修改、完整训练模型套路以及利用GPU进行训练等方面展开综述。包括数据准备、模型构建、模型训练、模型评估与优化、测试网络、保存模型六个步骤。主要包括添加先行层、替换现有层、冻结或解冻模型参数三种方法。GPU能够训练网络模型、数据、损失函数三种变量。二、现有网络模型的修改。三、完整训练模型的套路。

2025-06-19 04:30:00 169

原创 关于本周PyTorch学习的综述

首先,直观的方法就是环顾四周,找到下山最快的方向走一步,然后再次环顾四周,找到最快的方向,直到下山----这样的方法便是朴素的梯度下降-----当前的海拔是我们的目标函数值,而我们在每一步找到的方向便是函数梯度的反方向(梯度是函数上升最快的方向,所以梯度的反方向就是函数下降最快的方向)。通过对PyTorch深度学习入门教程的学习,了解了神经网络的基本骨架、卷积层、最大池化、非线性激活、线性层、Sequential的使用、损失函数与反向传播、优化器,为深度学习提供了基础。七、线性层及其它层介绍。

2025-06-12 13:02:17 1698

原创 第三周综述

贝叶斯定理:P(c|x)=P(c)P(x|c)/p(x),其中P(x)是证据因子与类别无关,P(c)先验概率是样本空间中各类样本所占比例,可通过各类样本出现的频率估计,P(x|c)是样本相对于类标记的类条件概率,亦称“似然”。周志华《机器学习》的理论深度,为“我是土堆”教程的PyTorch实践指明方向,经典理论与PyTorch实践教程的融合,打通了机器学习“知”与“”行“的通道,让知识学习从碎片化理论理解,进阶为可落地、可验证的实践能力,推动对机器学习技术的深度掌握与灵活运用。二、周志华《机器学习》

2025-06-05 16:37:19 1553

原创 第二周综述

泛化误差是指在“未来”样本上的误差,经验误差是指在训练集上的误差,也称为“训练误差”,经验误差可控。K折交叉验证法是将数据集等分为k个互斥子集,每次用k-1个子集训练,剩余1个子集测试,重复k词,计算k次评估结果的均值作为最终性能估计。机器学习的理论基础是Leslie Valiant的计算机理论,其中最重要的理论模型是PAC模型。任何一个有效的机器学习算法必有其偏好,归纳偏好的一般原则是奥卡姆剃刀,奥卡姆剃刀原则具有更好的泛化能力。监督学习是指从带有标签的训练数据中学习模型,用于预测新数据的标签。

2025-05-29 13:37:09 362

原创 【无标题】

【代码】【无标题】

2025-05-21 22:45:55 113

原创 本周文献综述

该技术路径可突破传统人工分类的效率瓶颈,为智能农业中的作物品种识别、自然保护区的植物多样性监测等场景提供精准、高效的技术方案,未来可进一步结合联邦学习或轻量化模型压缩技术(如 MobileNet),提升无人机边缘计算能力与复杂环境下的分类抗干扰性。定期浏览 arXiv、ICCV、CVPR、NeurIPS 等学术平台和会议,阅读神经网络领域的最新研究论文,了解 Transformer、生成对抗网络(GAN)、自编码器(AE)、强化学习等前沿技术的发展趋势与应用成果。1.神经网络基础概念的学习。

2025-05-21 21:02:28 703

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除