- 博客(193)
- 收藏
- 关注
原创 茶花DG:一种基于动态检测头和自适应损耗功能的轻量级茶花检测模型
原来的CIoU打分时,会看“框和茶芽的重叠面积、框的中心离茶芽多远、框的形状对不对”,但还不够精准,现在加了个参数α,变成α-CIoU:相当于把打分标准调的更严格---不仅看重叠、中心、形状,还会放大这些指标的差异,让模型对框没标准的情况更敏感,哪怕茶芽叠在一起。核心是用“GhostConv幽灵卷积”技术,它的思路是用更少的算力提取更多的特征,普通卷积是“一次性用很多卷积核提取特征”,又费算力又占内存。α-CIoU让模型"能标准茶芽的框",两者结合,解决了茶芽检测里”认错、漏检、框准不准“的问题。
2025-12-16 02:39:09
256
原创 基于结构约束和几何分析的葡萄多任务感知和三维采摘点定位法
研究背景:葡萄种植规模大,但人工采摘效率低,易损伤果实,现有采摘点定位方法(深度学习/区域限制)存在精度不足、易碰撞等问题,难以适配葡萄簇密集、形状多变的非结构化环境。研究方法:1.改进YOACT++为PG-YOACT++(集成SimAM机制、Mish激活函数),识别葡萄关键结构。3.基于血小板区域(RoI)设计约束规则,结合末端效应器结构实现三维采摘点定位。把“ReLU”激活函数换成“Mish激活函数”--让模型“更聪明,少犯错”2.设计从属判断合并法,整合葡萄簇结构。
2025-12-02 16:07:26
178
原创 对自主花卉授粉技术的全面综述
总体,阈值分割、CNN及混合方法在不同条件下均取得高精度,这些技术在农业、生物多样性监测等领域应用广泛,但仍面临照明变化(影响算法准确性)、计算效率(实时处理大分辨率图像困难)等挑战,未来需开发适应动态环境的稳健算法,探索数据增强、迁移学习技术。图像处理技术:如阈值分割、噪声过滤等,虽在光线稳定环境有效,但受照明条件限制大,图像模糊、低分辨率等问题会削弱性能。结合多种图像处理和机器学习技术(如SLIC聚类、色调信息)检测候选区域,在用CNN评估花朵吸收性实现精细检测。
2025-11-27 02:51:12
146
原创 用于设施番茄的智能授粉机器人的设计与性能研究
研究背景:设施农业中番茄天然授粉受限,传统人工、昆虫、激素授粉存在低效、高成本或副作用等问题,蕃茄花在非结构环境下具有小目标、多目标分布特征,传统卷积神经网络难以同时提取其区域特征和开花期信息,而机器视觉与深度学习技术为解决该问题提供了可能。研究思路:针对设施番茄授粉难题,结合机器视觉与深度学习,先设计YOLO-MAF算法检测开花期,再用MGFF算法定位授粉点,最后通过坐标映射让机械臂完成精准振动授粉,进而验证系统性能。高效多尺度注意力(EMA)模块。MPDIoU损耗函数。
2025-11-26 20:13:25
262
原创 Test-Time Training(TTT模型)
Mamba模型是一种基于状态空间模型的神经网络架构,聪明的信息处理小能手,它处理数据的时候,不像Transformer那样把所有数据关系都找一遍,而是像侦探,能够快速地找到关键线索,也就是动态的决定哪些信息是重要的,哪些可以忽略,这就是它的“选择性记忆”能力。增量式适应新数据:每处理一个测试样本,隐藏状态参数都会迭代优化,相当于模型在“边学边用”,能更好适配测试数据的分布差异,避免传统模型“训练完就固定”的泛化局限。这种操作减少了时间这个维度,但进行了疯狂的升维操作,计算所有元素的关联权重。
2025-11-19 18:56:42
345
原创 一种基于变压器的框架,用于微距茶芽检测具有梯度引导的注意力和位置敏感损耗
研究背景:茶芽对茶叶质量很重要,但它体积小,边缘模糊和背景树叶视觉相似度高且多是高视角拍摄,机器检测难度大,现有基于CNN的检测方法在这种场景下细节捕捉能力不足,人工采摘又效率低,所以需要新方法来实现茶芽的精准检测。研究方法:采用基于Transformer的框架,通过渐变引导类激活注意力模块让模型聚焦微小茶芽,明确引导解码器增强解码时语义一致性,更好地对茶芽分层结构建模,引入基于高斯的加权机制到损耗函数中,提高小目标定位精度。2.越往后层,越抓不住小目标的空间边界和纹理。:解决传统解码器的“小目标盲区”
2025-11-19 03:29:47
789
原创 精准定位水果靶点和采摘点,实现多维度的关注和动态优化
研究思路:针对上诉挑战,提出MDAD-YOLO模型,结合多维度注意力机制与动态优化技术,提升复杂农业场景的精确性与鲁棒性,同时构建七级验证框架并在相关数据集上实验验证。YOLO模型原本用“邻位插值”放大特征图(类似把像素直接复制到旁边),这种方法粗糙--不考虑上下文信息,不管区域的重要性,一放大就容易丢细节。研究背景:农业智能技术发展下,复杂农业场景中水果及采摘点精确检测面临目标形态多变、采摘点微小、背景干扰等挑战,现有模型难以满足需求。同时强化空间上下文和通道上语义信息,突出重要特征。
2025-11-18 06:15:39
588
原创 利用特征选择技术,提升用于检测个体害虫和有益昆虫的机器学习算法性能
最佳特征集:指的是从众多提取图像特征(纹理、形状、色彩)中,经过特征选择技术筛选后,最能有效区分不同昆虫类别、同时又能降低计算冗余的那一组特征整个流程通过,“图像分割-->特征提取-->特征选择-->机器学习分类”的步骤,实现对害虫和有益昆虫的自动化识别,既保证了识别精度,又通过特征选选择降低了计算复杂度。
2025-11-18 01:44:19
649
原创 一种轻量型基于关键点检测模型的方法,用于在多遮盖场景中实现草莓识别和选点定位
研究方法:构建多遮挡场景草莓数据集,设计轻量级LS-net(集成轻量骨干、注意力机制,优化特征金字塔,引入矩阵无最大抑制),测试模型精度、帧率等,嵌入式设备部署验证,对模型检测结果处理,计算采摘点和茎形。在检测不同大小草莓时,模型需要提取“多尺度特征”,但原来的“标准卷积”计算量大,参数多,所以就有了深度可分离卷积,它能在保持特征提取能力的同时,大幅减少计算量和参数。解耦头是利用草莓空间分布稀疏且独立的特点,通过按网格分工+拆分任务模块,既保证了草莓的准确率,又降低了计算量。
2025-11-13 01:47:39
257
原创 基于Mask R-CNN和TensorRT的高效草莓实例分割
NVIDIA的“TAO工具箱”+“TensorRT加速器”,教一个教Mask R-CNN的“机器人”认东西、分区域,这个工具箱里有不同版本的“骨架”(ResNet-10、50这些),这些骨架已经在谷歌的OpenImages数据集上“预习”过了。Dectectron2:是一套“训练框架”,可以基于它快速搭建模型,利用预训练的基础模型在自己的数据集上训练,节省从零开始的时间,让模型学会识别和分割图像里的目标。
2025-11-05 22:33:23
379
原创 改进YOLOv8,用于多色苹果实例分割和3D定位
绿色苹果和叶子颜色太像,不太好区分,但苹果边缘光滑、叶子边缘锯齿状,GA-YOLO就是改进YOLOv8,专门抓这种形状差异,里面的DSConv(动态蛇卷积),就是为了让模型更敏锐地识别果实边缘这些形状细节,减少特征损失。研究方法:采集多色苹果图像构建数据集,提出四种改进YOLOv8模型(RA-YOLO 、GA-YOLO、YA-YOLO、MCA-YOLO)并通过消融实验验证模块必要性,结合RGB-D开发三维定位。
2025-11-05 04:26:11
265
原创 多尺度跨模态特征融合与成本敏感分类损耗功能网络对袋装梨进行差分检测
研究思路:针对袋装梨采摘的遮挡等挑战,设计多尺度跨模态特征融合与成本敏感分类损耗的MCCNet网络,通过双流卷积神经网络并行提取多模态特征,结合轻量级跨模态特征融合方法,引入成本敏感分类损失功能优化检测效率与准确性。通过差异模式的通道机制,先找出RGB和深度特征的差异,在为各自的特征通道打分,筛选出最具价值的特征,这张筛选能避免引入冗余功能,让网络更聚焦于两种模态的互补信息,进而在复杂果园更精准识别。Neck对融合后的特征再加工,Head是最终的“判断器”,分别负责预测梨的位置和类别。
2025-11-04 04:56:14
318
原创 基于色彩融合和3D功能的自动苹果识别
把前面的6维颜色特征和33维FPFH几何特征合并,就得到了39维的Color-FPFH描述符,相当于给每个点云数据贴一个“颜色+形状”的综合标签,用来训练分类器,精准识别苹果、枝条、叶子。SVM是个分类工具,把不同的数据隔开,它的分类准确性高,而且不容易学傻,但参数很难选,比如“惩罚参数c”和“内核参数g”,这俩参数选得好不好直接影响分类结果。找邻居并判断:对种子的邻居点先看色差,色差小于阈值,就认定是一种类别,再看距离,如果和种子的距离大于阈值,就把这个邻居点当成新的种子(继续滚雪球扩大)
2025-11-03 02:47:57
549
原创 在遮挡番茄中应用模态分割以实现形状重建和遮挡恢复
类似于,你在公园当中拍一下苹果,有的苹果被树叶遮挡一部分,这是自然遮挡,但现有像cocoA、Kinst这样的数据集,在标注“被树叶挡住的苹果形状”时,是人工假设着去标注的(相当于靠人工想象补全被挡的部分),而不是真实的还原被挡住的部分。但研究要做的“模态分割”,需要精准处理可见部分和不可见部分的互动(比如知道被挡住的部分真实形状),所有现有数据集满足不了这个需求,就得用算法自己合成出“遮挡部分形状真实、过渡自然”的图像,让模型学到真正“可见-不可见”交互逻辑。3.解耦遮挡关系的模态耦合处理。
2025-10-30 03:16:59
238
原创 双重注意力掩码R-CNN与几何滤波的多阶段融合:用于遮挡苹果的快速定位
在苹果园里,树叶、树枝这些会挡住苹果,给识别苹果带来麻烦,虽然改进的Mask R-CNN能提取苹果的2D轮廓和3D点云,但光靠点云中心容易定位错,树叶的点云似薄片,分布均匀,树枝的点云是细长圆柱形,呈连续线性分布,所有得像办法把这些遮挡的东西和苹果分开。5.最后把调整好的V通道,和原来的H(色彩),S(饱和度)通道重新组合,就得到了光照补偿后的HSV图像,这样图像的亮度就均匀多了,方便后续识别。第三步:把剩下的不是果子点去掉,再结合局部几何特征来完善结果,这样处理后,点云更纯,3D定位更准确。
2025-10-28 17:03:58
530
原创 双通道深度学习框架可实现从无人机激光雷达点云中提取橡胶树冠
自定位注意力(SPA):它会先一些关键的点(SP点),这些点的位置不是固定的,会根据橡胶树的形状和语义(比如哪里是树冠重要部分)动态调整,然后在聚合特征的时候,分别考虑空间上的距离(比如两个点离得有多远)和语义上的相似性(比如两个点是不是都属于树冠),不会因为空间距离的问题,把一些信息弄模糊了,能更好的区分树冠和树干边界。自适应几何融合:橡胶树点云有的地方密(树冠),有的地方疏(树干),用注意力权重来智能调比例----人多的圈子多参考新特征,人少的圈子多保留原始特征。
2025-10-24 16:31:36
844
原创 基于3D LiDAR的作物排检,用于在不同种植密度下成熟时的大豆
研究背景:作物排检对农业自动化意义重大,但成熟大豆因树冠封闭、种植密度差异大等,使得传统基于图像的检测受环境影响大,激光雷达作为主动传感器,受环境照明影响小,能生成高精度三位点云,在农业领域优势明显,不过现有基于激光雷达的方法在成熟大豆研究有效,且忽视种植密度影响,存在假作物排、检测缺口等问题。这时候IMU(惯性测量单元)就像一个"角度检测器",能实时测出机械滚动、俯仰的角度,通过特定数学公式,把这些歪扭的点云,根据IMU测的角度,调整成稳定、水平的样子,方便后续的处理。线性模型是y=Kx+b。
2025-10-20 23:28:30
972
原创 基于彩色线图像增强和改进型YOLOv7模型的海洋水产养殖生物体检测
对输入特征做最大池化和平均池化,获取两个空间特征图,对这两个特征图做卷积运算,生成空间注意力权重,用这些权重调整语义和空间信息的流动,融合出更精准的特征。研究方法:用改进的基于色线模型的水下图像增强算法改善图像质量,构建含5455章图像、4类生物检测数据集,在YOLOv7中采用双重注意力机制提升检测精度。把这两个特征送入"自适应机制块",输出通道注意力权重,用这些权重调整原始特征,强化关键通道信息。对输入特征做平均池化和最大池化,聚合空间维度信息,得到“平均池化特征”和"最大池化特征"
2025-10-19 14:46:44
190
原创 Nextv2-DETR:基于改进型的RT-DETR的土豆轻量级实时分类模型,适用于移动部署
RT-DETR模型骨干原本用的是ResNet(残差网络),能促进信息传递,帮助模型更好的学习,但结构复杂,需要大量计算资源和参数,于是替换成ConNextv2(卷积网络),设计能适配自监督学习技巧(MAE,掩码自动编码器),还构建了FCMAE(完全卷积的掩码自动编码器),提升自我监督学习,ConNextv2基于MAE编码器模块建的。替换网络架构:原RT-DETR模型的ResNet骨干网络替换为ConvNextv2,适配自监督学习技巧(MAE),减少实际运动中图像模糊影响,保证了信息的有效提取。
2025-10-16 14:37:28
419
原创 基于变压器的多光谱成像技术,利用无人机检测水稻异常生长
研究方法:构建大规模无人机遥感数据集并处理优化,提出ARG-TR模型,集成分成变压器编码器与轻量解码器,多光谱数据集训练验证,对比先进基准验证模型性能。研究思路:基于SegFormer优势,提出轻量级变压器语义分割框架ARG-TR,处理多光谱数据,利用该模型识别四种水稻生长异常,兼顾准确与效率。研究背景:水稻易受生物和非生物因素影响出现异常,传统人工检测及现有技术存在单症状、可推广性差等局限,且高精度模型计算成本高,不利于无人机部署。编码器:负责从水稻图像里提取各种特征,能抓细节也能抓整体环境。
2025-10-15 02:13:52
298
原创 三维感知和分层聚合边缘强网络,用于水下多种场景中进行虾类计数
所以和那些"关注全局信息"的注意力相比,基于"位置信息"来设计注意力聚合(也就是3DPA模块的思路)更有意义------结合"水平方向"、"垂直方向"、"通道维度"形成三维感知,更全面捕捉虾特征。3DPA不只是突出位置信息,还突出虾的特征信息,同时整合多维度信息来更好识别虾,3DPA模块把通道注意力和空间注意力结果融合,这样既明确了虾的关键特征,又确定虾的位置,能更全面、精准的突出虾。这种方式,没考虑到不同位置其实需要"本地信息"(某一小片区域的虾,需要整合的是附近区域信息,而不是整个图像全局信息)
2025-10-14 03:55:54
416
原创 E22-BN,Linear,Dropout
Normalization Layers -- 规范化。Padding Layers --- 填充层。
2025-10-13 15:21:28
168
原创 利用深度残留网络在野外图像中对棉花虫分类
研究背景:农业害虫致农作物损失,棉花害虫管理成本高,野外识别利于指定有效策略,基于图像的昆虫分类有挑战,但相关技术发展让研究更可行,且此前针对棉花害虫的实地图像分类研究少。研究方法:构建含RGB棉田图像的新数据集,用新型深度残留学习设计(ResNet34*模型),并与其它卷积神经网络做对比。研究思路:指出棉花害虫识别的重要性与现有研究不足,提出利用田地图像和新算法,结合新数据与改良深度学习框架分类棉花害虫。最后这七层模块组合起来,让这个深度残差网络更好地给棉花害虫分类。
2025-10-12 11:03:33
242
原创 YOLOV7-CBAM和DeepSORT采用像素网格分析实现苹果园中杂草定位和内层密度估计
匈牙利算法:杂草追踪里相当于一个“匹配员”,它基于连接单元(IoU匹配,两个框的重叠程度),比如在第一帧图像里检测到杂草A给框起来,在第二帧里又检测到了一些杂草,有多个检测框,那么这时候匈牙利算法计算第一帧杂草A的检测框和第二帧当中的检测框的IoU,重叠程度高,认为这两个框当中草是同一颗。深度特征嵌入:给每一颗杂草发一张独一无二的“身份证”,每颗杂草都有自己外观特点,比如叶子形状、颜色等,通过深度特征嵌入技术,每颗杂草有自己的编码,只要模型一检测到这个编码,就能确定这是同一颗杂草,避免了同一颗杂草重复计。
2025-10-11 17:53:43
171
原创 基于GenAI训练框架的复杂茶园场景中多尺度茶花检测
多尺度技术原理:由于茶花图像中的目标可能大小不一,单一的尺度检测方法难以有效捕捉所有目标,多尺度的检测方法通过在不同尺度下处理图像或特征,如构建图像金字塔、使用不同大小的卷积核、融合不同层级的特征图等,确保检测器能够识别不同大小的目标,提高检测的准确性和鲁棒性。研究方法:提出GE-DETR模型,里面有CGA模块、SOFE-Net和GenAI训练框架,CGA帮助模型更好抓住多尺度茶花特征,SOFE-Net提升小目标检测和计算效率,GenAI帮助模型训练更稳。
2025-10-10 22:48:32
406
原创 在复杂的水产养殖场景中,对虾类幼虫进行高效的单阶段检测
研究背景:虾类作为重要水产品,养殖意义重大,对虾类幼虫检测很关键,计算机视觉是关键技术工具,过去依赖手动提取特征的机器学习算法有局限性,基于深度学习的物体检测因能自动提取特征逐渐取代传统方法研究方法:提出FAMDet单阶段幼虫检测方法,用部分卷积构建高效FasterNet骨干提取多尺度特征,构建自适应双向融合颈部整合高低层次信息,用带MPDIOU的解耦检测头做精确边界框回归。
2025-10-09 18:11:45
283
原创 人工智能在害虫识别中的应用---综述
矩阵行表示“实际的类别”,列是“模型预测的类别”----》对角线上的数:模型预测对了的数量(实际是"正类",预测也是"正类",实际是"负类",预测也是"负类")实时需求:为及时防治害虫,模型要专注低推理延迟的实时检测能力,需开发轻量且准确的模型架构,应用于无人机、手机等设备。训练时的“损失函数”---损失越小,模型学的越好。TP(真正例):实际"正",预测"正"TN(真负例):实际"负",预测"负"FP(假正例):实际"负",预测"正"FN(假负例):实际"正",预测"负"方框损失:预测物体的方框准不准。
2025-10-09 14:38:53
267
原创 利用多光谱图像和CGS-YOLO算法区分玉米幼苗与杂草
CARAFE上采样操作工具:传统上采样方法存在一些信息丢失、模糊性问题,这使得在复杂背景下准确识别变得困难,CARAFE能够更好的维护特征图的细节,避免信息丢失和模糊,通过更高效的利用低分辨率特征图的信息来重建高分辨率对应物,提升了模型对感知细微特征差异的能力。由通道注意力模块(CAM)和空间注意力模块(SAM),CAM主要关注图像局部细节,SAM则更看是看图像整体结构和背景,结合通道和空间信息,提取丰富的空间特征,再调整权重,让模型关注玉米苗所在的关键区域。
2025-10-06 18:16:55
296
原创 自适应滤波器减轻光照对卷心菜识别准确性影响
研究背景:病虫害对卷心菜的质量和产量构成重大威胁,化学农药的施用仍然是最有效的控制措施之一,传统的应用方法使用农药利用率低,只有约30%的农药附着在作物表面,剩余的农药则沉积在土壤和空气中,导致农药浪费和环境污染,以目标为导向的喷涂技术是解决这些问题的有效方法,通过利用实时目标检测和精确控制,这种方法可确保目标区域的农药沉积达到准确水平。研究方法:提出基于Yolov8n的实时卷心菜识别模型,该模型结合了卷心菜图像滤镜和自适应滤镜参数学习模块。滤波器参数自适应学习模块。卷心菜识别模型整体结。
2025-10-04 19:38:50
164
原创 基于LiDAR的卷心菜作物快速提取导航线和作物位置
知识补充:点云是在地理信息、计算机视觉、机器人领域常用的数据形式,点云就是一堆点的集合,这些点带有一些位置信息(比如激光雷达向周围发射激光束,碰到物体反射回来,根据发射和接收的时间差,计算出物体表面在各个点在空间种的位置,得到一系列的点,这些点构成了点云数据)KD-Tree(在高维空间中用于组织数据点的数据结构):协助DBSCAN对卷心菜聚类时,要判断某个点和哪些点挨得近,KD-Tree能够快速找到距离近的点,找堆更快,加速找位置的过程。研究背景:种卷心菜时,明晰每颗卷心菜的位置,实现精准喷晒农药。
2025-09-30 15:58:42
213
原创 基于立体感的西兰花识别
研究背景:西兰花的自动化采收面临这复杂背景、西兰花与背景之间的颜色相似性以及植物叶的遮挡,所有为了提高西兰花采收过程的自动化和智能化性,提出一种在复杂野外条件下快速检测、识别及定位方法。研究思路:通过在YOLOv8-Seg模型中添加三重注意力模块,该算法的功能融合能力得到了显著提升。研究方法:提出了一种名为YOLOv8n-Seg的改进型YOLO-Broccoli-Seg。改进YOLOv8n-Sge网络基础得到YOLO-Broccoli-Seg。三重注意力机制(突出重要特征,抑制不重要特征)
2025-09-30 03:54:28
248
原创 增强型混合注意力YOLOv8s根结核检测
研究背景:根结节体积小、附着力致密、根部颜色相似、富氧环境中易受氧化影响,以及周围根系结构复杂,对结节的快速准确分析仍是一个重大研究难题。在用OTSU分割算法,对每一个候选区域进行处理,得到对于候选区域的轮廓,在将这个轮廓和粗筛画的圈匹配度高不高。通道注意力:根据要找的根瘤特征,判断是要将注意力集中在颜色这个通道上呢,还是形状、纹理信息这些通道上呢。总结:SC-YOLOv8先快速筛选出根瘤的候选区,在用OTSU分割算法对一个一个候选区精筛。SCO-YOLOv8s --- 混合模型 (解决误判的问题)
2025-09-27 17:08:59
219
原创 轻质改进型YOLOv8n模型识别柑橘采摘
研究思路:将YOLOv8n中骨干网络卷积模块替换为轻量级的ADown模块,添加CA注意力机制,引入复合式双卷积模块(C3_DualConv)取代YOLOv8n中的所有C2f模块,在多尺度特征提取与融合上,双向特征金字塔网络取代(BiFPN)取代YOLOv8n模型中原始PANet,这种多层次的互补信息机制使该模型能够在复杂的光照条件下保持对柑橘的高识别率。CA注意力机制------对重叠目标有效,就是它是从整体布局入手,而不是一头扎进局部细节里,这样更能理解物体在整体中的关系。
2025-09-26 03:43:49
345
原创 基于目标-空间注意协同和全局-局部注意引导特征融合策略的茶芽自动检测(TBD)
研究背景:茶芽自动检测(TBD)是智能采茶系统中的关键技术,然而面对复杂的背景环境,茶叶和茶芽颜色的高度相似,经常导致漏检和误检,尤其对于小茶芽。总结起来就是:SOSA和GAGFF协同工作,SOSA突出茶芽特征,GAGFF将茶芽也在更聪明的融合,这两个环节解决茶芽漏检和误检问题。研究思路:在YOLOv11框架中集成目标-空间注意协同(SOSA)机制和全局-局部注意引导特征融合(GAGFF)策略。协同目标-空间注意机制(SOSA) ---- 解决漏检和误检的一个问题。
2025-09-24 17:56:08
163
原创 YOLO数据集加载---label-studio
对于YOLO格式的数据集加载与VOC格式数据集加载最大的不同在于标注信息的文件格式不同,那么我们在取标注信息时得做对应的调整。
2025-09-23 03:42:36
177
原创 加载VOC格式数据集代码书写
在PyTorch当中加载你自己的数据集,需要你去写一个类,告诉PyTorch需要如何去加载你的数据集,进行网络训练。__getitem__需要你去告诉PyTorch你是如何去获取数据集当中某一个数据。__len__ 是需要你去告诉PyTorch你的数据集长度是多少。__Init__初始化。
2025-09-22 17:11:36
224
原创 标注自己的数据集
也可以使用我们的label-studio进行标注---在anconda下的进行安装。那么大家可以在label-studio上协同工作。
2025-09-19 21:39:21
237
原创 基于深度卷积神经网络的目标分割和位姿估计
(3)数据不够用:收集真实的数据(给机器人看各种场景的图片、标注位姿)特别费时间,现在用目标模型和渲染平台“造数据”,短时间能生成一堆带标准的图像(RGB-D图,位姿、掩码),当训练数据。(1)识别不准:以前靠边界框或涂掩码(画物体轮廓)找物体,框框信息少,还带一堆没用的信息(背景啥的),掩码分不清同类东西(一堆的瓶子,分不清哪个是哪个)传统方法和深度学习的区别:要是已知要抓的东西长啥样子(有3D模型),理论上能算出抓子该咋摆(抓取位姿),但关键得先知道物体在空间中的6D位姿。第二阶段:“精细检查+优化”
2025-09-08 14:40:53
182
原创 对训练好的模型验证
我们从网上找一张狗的图像,放入我们训练好的网络模型进行识别输出判断。没有预测对的原因可能也是我们只使用了一轮训练的模型。我们换一种飞机图片来进行预测。
2025-08-29 14:32:21
114
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅