自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Littro Innovations

仪器设计 + FPGA编程 + 图像处理&深度学习

  • 博客(226)
  • 收藏
  • 关注

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(9)

上一节yolov8的训练已经完成了,现在要开始做模型的转换了,这里和yolov7方式相似,但是有一些差异,尤其是yolov7的不带NMS部分的输出顺序和yolov8的输出顺序与格式是有差异的。尾部链接了 我们自定义的DecBBox,Filter,Sort还有NMS。这里面filter和NMS的过滤条件不用管,在推理代码里还要重新配置一下,用这个默认配置就可以。我们一个一个看,首先filter.py里 要先增加个Filter的自定义层。这个部分和yolov7方式是完全一样的。下面是和yolov7的对比。

2024-01-16 09:10:45 1583 8

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(8)

目前为止yolov7算法在海思hi3519dv500.3516dv500下的移植已经说完了,后面开始讲 yolov8的移植。过程基本上是一样的,只是在训练和转换过程中会和yolov7有区别。本章先说一下训练的部分。

2024-01-10 15:34:41 2543 5

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(6)

上一篇,我们讲到onnx模型的导出。模型导出之后要转换成om模型。这一篇主要就是来讲如何正确的导出Om模型。这个导出方式和以前Ruyistudio导出模型方式特别类似。只是不在windows平台里,在linux里。相关Python安装和库安装之前已经讲过了,这里就不重复了。

2023-12-28 15:50:00 1630 3

原创 Tofu5m目标识别跟踪模块 跟踪模块

支持全自动跟踪、即点即跟踪、动目标检测跟踪、手动框选跟踪、波门跟踪等多种模式跟踪,并提供跟踪过程中的闭环云台与吊舱运动控制与自适应变倍功能。支持热红外视频、可见光视频、微光视频下的人、车、船等物体的深度学习识别,其他类型物体识别算法可定制,提供完整解决方案服务。自动跟踪模式下避免传统的框选的麻烦与波门跟踪中无法自适应目标大小的问题,精确识别到目标类型后自动筛选目标进行跟踪。在画面中存在多个识别到目标时可另外选择即点即跟踪模式,在画面上点击要跟踪的目标,模块会锁定该目标进行跟踪。

2023-12-25 13:08:07 1254

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(5)

上一篇已经把Onnx模型导出来了,在Netron看到层都对了之后就要去转换om模型了。首先,强烈建议不要和训练的linux搞一起,很多库不一定一样。如果很熟练能来回切换Python版本和库的牛人另当别论。几个依赖库版本这里列一下,方便参考。我用的是Ubuntu18.04。都按下面指令安装就可以。然后就是python的安装,这个就比较简单了。我装的是python3.7,也可以装高版本,这个应该没什么影响。python是先从官网下载的对应版本包后手动安装的。

2023-12-20 18:03:33 2390 6

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(4)

如果想要在电脑做GPU推理或者在Nvidia板卡里运行,建议是加上EfficientNMS,Nvidia本身支持这个层转TensorRT,包括在训练环境里做onnx模型的推理,其实也最好是加上。这里转换完之后都是默认带EfficientNMS层,用Netron看大概率会是两种可能情况,一种是不带EfficientNMS,一种是不带NMS,像下面这种。这里NMS和Filter有IOU阈值,筛选的,这个部分不用在源码里修改,后面可以在海思代码里直接更改。原始模型导出的方式也给了一个源码,在export.py。

2023-12-20 16:49:54 1838 6

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(3)

经过调试后中终于在hi3519dv500和hi3516dv500两个平台中都实现的算法验证。同时可以做自己定制的算法模型的移植了,下面是两个移植案例效果。识别运行时间上做了对比和统计,具体的可以看下面的表格。总体来说速度还是比较快的,Yolo系列算法实时运行是几乎没有任何问题。训练到量化过程已经全部验证完,期待在项目中使用。涉及到技术细节的部分因为商业用途,有部分省略。如需相关技术服务项目合作可私信联系。

2023-12-19 16:02:21 1747 5

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(2)

本篇是在海思嵌入式芯片中移植yolov7和yolov8的第二篇。做一个调试的小总结。目前手上有SS928还有Hi3516dv500两个板子,3519DV500板子还没开始调。Hi3519dv500和3516是同一套SDK,基本上是一样的,算力稍高一点,ARM主频高一点。我们主要对yolov7和yolov8进行了从训练到量化,部署的工作。训练之前要改一下训练源码,不然训练完也跑不起来。量化过程是先转Onnx模型,然后Onnx再用MindStudio转om模型。

2023-11-29 14:41:31 1878 9

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(1)

海思SS928,SS926以及Hi3519dv500,hi3516dv500下的yolov7模型部署推理系列

2023-09-26 11:08:06 2214 3

原创 热红外图像增强算法综述

图像增强算法说明

2023-06-21 16:28:55 2376

原创 Tofu目标识别跟踪模块介绍

Tofu目标识别跟踪模块,实现热红外、可见光目标的识别与跟踪

2023-01-12 10:37:12 891

原创 海思SD3403开发/SS928V100 移植Yolo模型

如何在SD3403、SS928V100移植Yolo模型

2023-01-06 14:55:57 5831 8

原创 如何使用Tofu进行光电产品目标识别跟踪功能升级

Tofu产品系列是利卓公司推出的目标识别跟踪应用的光电产品与AI升级用系列产品。今天介绍的是其中一个专门为光电产品升级自主目标识别跟踪应用的Tofu3产品。Tofu3可以快速集成到光电云台相机中,提供从目标识别到跟踪的完整解决方案。Tofu3目前支持热红外、可见光视频的输入,直接控制变焦镜头与云台,在目标识别后自主进行光机电联动,达到全过程跟踪的效果。典型的云台相机中连接关系如图。 输入方式上,热红外输入抛弃了传统的模拟视频输入方式,采用BT.656数字视...

2021-08-13 09:21:10 534 4

原创 热红外目标识别与跟踪

凡是温度比绝对零度高的物体均对外有热红外辐射,不管晚上还是白天都可以在没有自然光补光的情况下对物体进行观测。另一方面,热红外波段下的辐射强度同时也反映者物体的发热程度。因此,热红外成像在夜视观测与测温领域中发挥着重要作用。在疫情期间,热红外测温特性也被很好地利用,用于人体温度测量中。 本文章中主要介绍热红外目标识别与跟踪相关的内容。 热红外目前主流的分辨率有384×288与640×512两种分辨率,不同于可见光高清、4K等大分辨率,热红外因成本与工艺问题,还停留在低分辨率阶段。我们通常...

2021-03-15 20:40:31 4688

原创 如何在海思 Hi3519AV100上移植YOLOV3 (3)

隔了好久来填坑,这次写一下怎么在板卡中部署模型。打个小广告: 海思hi3519av100开发板链接:https://item.taobao.com/item.htm?spm=a230r.1.14.117.4afe75a61WreAX&id=586610485052&ns=1&abbucket=1#detail 除了SDK与底板图纸之...

2019-09-16 17:20:06 5025 11

原创 如何在海思 Hi3519AV100上移植YOLOV3 (2)

接着写未写完的部分,一直业务太忙,延期了两周才写这一篇。 本篇主要写一下模型量化后的仿真部分。海思在RS工具里提供了simulation方式对量化后的模型进行功能仿真(func sim)和指令仿真(inst sim),在板卡上跑之前就可以做模型的仿真,提前看到效果。主要目的认为是两个:1)模型识别功能的验证;2)模型识别阈值的调整。 打个小广告: 海思hi35...

2019-07-08 18:24:52 3644 9

原创 如何在海思 Hi3519AV100上移植YOLOV3 (1)

HI3519AV100包含了深度学习的NNIE内核,算力为2TOPS,是目前同等算力下性价比最好的平台之一。公司产品已经可以实时运行YOLO V3,写这个系列的原因在于帮助我们开放平台下的开发者用户及公司新入职员工的使用培训,可以更快速的使用开发板进行模型的部署。 打个小广告: 海思hi3519av100开发板链接:https://item.taobao.c...

2019-06-19 12:10:27 11428 19

原创 利卓创新- 超小型深度学习平台

 Littro MicroBox超小型端上深度学习识别模组 概述 简介 Littro MicroBox支持端上人工智能识别,同时可推送识别后的视频流,并实时显示结果,MicroBox支持多种物体在线式识别算法,包括行人、车辆以及特殊指定物体类型,支持红外、可见光多个波段的多种分辨率与帧频的视频输入、接口上满足多类型输入以满足不同用户的需求。产品中同时支持视频编解码、视频压...

2019-01-12 18:39:13 4226

原创 hi3516cv610芯片yolov8算法移植(1)开篇

海思2024年又推出了一款超便宜的芯片平台hi3516cv610,价格直接控制到百元以内,集成度高。目前已经成功移植运行了yolov8算法,后面也会陆续更新。相关问题也欢迎私信或者留言交流。之前hi3516dv500/hi3519dv500芯片下好多朋友应该都已经移植成功算法了。后面如果不是特别忙的话坚持计划每周一篇速度来更新。

2025-02-25 11:22:14 327

原创 Tofu云台相机-鸟识别跟踪

Tofu飞机目标识别跟踪。

2025-02-25 11:14:49 29

原创 热红外低小慢目标数据集开源!

热红外低小慢目标数据集数据由我司利卓创新 Tofu Intelligence开源提供,本数据仅用于科学研究,不得进行任何形式的二次销售或转包。若在论文研究中引用,请注明来源。

2024-12-25 13:34:47 282

原创 fiftyone初步使用

数据快速可视化显示方式来说fiftyone是用过的里面最好用的了。另外也提供了COCO,OpenImage数据库的分类下载功能。

2024-11-22 13:34:49 155

原创 无人机侦察打击方案(4)

光电云台中通过伺服角度、跟踪画面中的位置、激光测距等信息换算出无人机目标方位角。通过RS422/网络接口实时推送个激光打击组合。光电云台与激光打击组合安装于同一个结构工装,保持安装平面一致,对光学系统进行统一标定。标定参数包含,镜头焦距、相对位置、伺服角度、距离误差等。

2024-11-22 13:25:48 370

原创 无人机侦察打击方案(3)

此按钮激活后目标识别功能自动同步激活,目标识别类型与目标识别功能中配置的参数相同。分别支持人、车、船、飞机等目标识别,模型不一样支持的目标类型也存在差异,常规模型只支持人、车识别。激活,此功能下目标识别到跟踪将全自主完成,在识别到多目标的情况下优先选离中心点近的目标跟踪。如上图所示,界面左上为算法与配置区域,包含了多种图像算法功能,右下区域为常规光电控制与视频操作区域。包含目标识别、手动框选跟踪、区域动目标检测、识别点击跟踪、自动识别转跟踪、波门跟踪、设置等功能。,激活后可在画面中绘制方形检测区域。

2024-11-19 15:01:45 416

原创 无人机侦察打击方案(2)

在全自主模式下识别跟踪模块在视频中搜索可疑目标,发现目标后对目标进行锁定,进行二次放大连续识别确认目标的真伪,确认为真实目标后随即开始联动跟踪,过程中将目标类型、坐标、云台状态通过数据接口发送至操控端。支持全自动跟踪、即点即跟踪、动目标检测跟踪、手动框选跟踪、波门跟踪等多种模式跟踪,并提供跟踪过程中的闭环伺服与云台运动控制与自适应变倍功能。识别跟踪模块接收云台视频后实现目标的检测、识别、跟踪功能,同时在跟踪过程中联动云台伺服、镜头,锁定目标,输出视频中叠加目标信息。识别跟踪模块实物如下图所示。

2024-11-19 14:52:53 811

原创 无人机侦察打击方案(1)

伺服采用两轴稳像控制方式,包含了水平电机、俯仰电机,可实现两个自由度的转动控制,从而完成360°无死角旋转,可自由获取无拘束的全方位视野。BIT4、BIT3、BIT2、BIT1分别控制下,上,左,右移动(1有效);*1.指令码 1:BIT7,BIT6,BIT5, BIT3 位始终为0: BIT4为自动扫描功能控制位(1/0:打开/关闭该功能), BIT2 光圈缩小(1有效);云台采用航空铝合金精密加工而成,强度高、具有良好的吸振、抗雨、防尘、抗腐蚀能力,能够适应恶劣的野外工作环境。

2024-11-19 14:47:56 849 1

原创 Tofu3 Object Detect and Track Module

Tofu3 is a product which can support thermal and visual light video input and edge calculation, and can be applied to intelligent day and night monitoring scene. The product also supports artificial intelligence based objects detecting and tracking algorit

2024-11-18 19:00:57 287

原创 Tofu船舶识别跟踪

可见光与热成像同时支持船只、人员、车辆、无人机、飞机、鸟类等目标物的识别及视频自动跟踪功能,转台采用无级变速跟踪,跟踪平滑不卡顿,同时支持。支持船只、人员、车辆、无人机、鸟类等模型在不同场景下训练识别及视频自动跟踪功能,支持全景拼接成像功能。支持船只、人员、车辆、无人机、鸟类等模型在不同场景下训练识别及视频自动跟踪功能,支持全景拼接成像功能。穿越围栏、绊线入侵、区域入侵、物品遗留、快速移动、停车检测、人员聚集、物品搬移、徘徊检测。预留6组串口通信,可叠加GPS、北斗、测距、温度湿度等传感器。

2024-11-18 18:57:35 1389

原创 Tofu识别跟踪变焦镜头控制接口与协议

接口为TTL(3.3V),波特率为9600bps;通信协议采用VISCA,典型通信协议见下表。x 默认1;y 默认98x 01 04 07 02 FF (变倍+)8x 01 04 07 03 FF (变倍-)8x 01 04 07 2p FF (变倍+)8x 01 04 07 3p FF (变倍-)T/W 操作;p=0 (Low) to 7 (High),代表变焦速度自动变焦与手动变焦下p,q均为18x 01 04 06 02 FF (开)8x 01 04 06 03 FF (关)

2024-11-14 12:58:35 790

原创 Tofu外设设备接口与协议

1)TTL/RS485均使用9600波特率,云台默认ID号为01;网络视频,BT656,Cameralink(非标)Cameralink(定制),SDI(定制)2)RTSP视频输入均为H.264压缩格式。网络视频,BT.656/1120,非标ExPelco-D高精度。:需接口转换板或有协议约束。

2024-11-14 12:57:22 161

原创 Tofu识别跟踪产品输入BT1120视频接口与时序要求

列方向上4-275为消隐列,0-3为视 频结束基准码EAV,276-279为视频开始基准码SAV,280-2199即最后1920列 为有效列。在有效行上,EAV对应FFFF、0000、9D9D, SAV对应FFFF、0000、8080,消隐列对应8010,有效列对应有效数据。采用1080P@30Hz 标准BT1120格式,时钟频率74.25MHz,帧频30Hz,每行像素点个数2200,共 1125行,即2200×1125×30Hz=74.25MHz。,尺寸为45x45mm或38x38mm。

2024-11-13 14:59:19 648

原创 Tofu3识别跟踪器热红外数字视频接口

BT.656 逐行协议,图像帧频 25Hz,满足如下具体协议:逐行(625-line,有效总行列大小 720×576),数据位宽 8 位, YCbCr=4:2:2 ,驱动 YCbCr 时钟大小 27MHz,其中 line1-line49 为 无效行数据,line50-line625 为有效行数据(逐行输出),在有效行数据中,640×512 图像拉伸到720×576。CameraLink接口输入时序为非标协议,采用BT.656 逐行协议,图像帧频 25Hz,需完全满足与图1所示一致的接口时序要求。

2024-11-13 14:58:02 973

原创 Tofu AI视频处理模块视频输入配置方法

如果视频是绿幕或蓝幕,代表没有配置视频输入,首先要配置一下模块IP与相机IP是同一个网段。点击“参数设置”,输入IP后点击“更新”,重复步骤1,2 添加更新IP后的设备。其中admin与12345678是对应用户名与密码,192.168.1.87 为网络相机IP地址,请对应修改。不同相机的RTSP视频拉流地址格式会有区别,此地址格式进作为参考,请与网络相机厂家确认,3)搜索到相机IP地址,务必确认是相机IP,不是AI模块IP,点击激活画面,点击“参数设置”,输入“拉流地址”,点击“更新”。

2024-11-12 14:31:55 609

原创 TofuAI处理BT1120时序视频要求

列方向上4-275为消隐列,0-3为视 频结束基准码EAV,276-279为视频开始基准码SAV,280-2199即最后1920列 为有效列。在有效行上,EAV对应FFFF、0000、9D9D, SAV对应FFFF、0000、8080,消隐列对应8010,有效列对应有效数据。采用1080P@30Hz 标准BT1120格式,时钟频率74.25MHz,帧频30Hz,每行像素点个数2200,共 1125行,即2200×1125×30Hz=74.25MHz。,尺寸为45x45mm或38x38mm。

2024-11-12 14:29:00 1092

原创 Cameralink转MIPI,Cameralink视频识别分析

CameraLink视频输入转MIPI极简方案,可直接输入到处理芯片中进行视频目标识别与跟踪。

2024-11-11 13:55:56 669

原创 Tofu识别跟踪产品视频输入接口汇总

目前仅Tofu3支持1440P格式的400万像素视频,可通过升级包支持,400万像素分辨率目前仅支持2560×1440。Cameralink视频输入应满足BT.656或BT.1120时序,增加一块接口转换板,转换板与详细时序要求详见。视频输入默认支持网络RTSP协议视频,分辨率支持480P,720P,1080P,1440P等格式。Tofu5系列支持MIPI视频输入,分辨率最高支持800万像素,帧率可到60Hz,详情请电询。SDI视频输入需要额外增加一块第三方接口转换板,将SDI视频转换为MIPI接口。

2024-11-11 13:53:02 1191

原创 Tofu目标识别跟踪产品视频与外设接口汇总

1)TTL/RS485均使用9600波特率,云台默认ID号为01;网络视频,BT656,Cameralink(非标)Cameralink(定制),SDI(定制)2)RTSP视频输入均为H.264压缩格式。网络视频,BT.656/1120,非标ExPelco-D高精度。:需接口转换板或有协议约束。

2024-11-11 13:51:41 332

原创 XFeat快速图像特征匹配算法

XFeat在速度上超越了当前基于深度学习的局部特征模型(速度提高了5倍),具有相当或更好的准确性,并在姿势估计和视觉定位方面得到了验证10。:与典型方法不同,XFeat将关键点检测分离成一个独立的分支,使用1×1的卷积在一个8×8的张量块变换图像上进行快速处理。:XFeat设计了一种新颖的轻量级CNN架构,可以部署在资源受限的平台,无需特定硬件优化即可实现高吞吐量或计算效率。:XFeat在限制网络中通道数量的同时保持尽可能大的图像分辨率,以满足准确图像匹配的需求。

2024-07-03 15:40:41 956 2

原创 海思SD3403,SS928/926,hi3519dv500,hi3516dv500移植yolov7,yolov8(24)SS928/SD3403推理yolov8 - om量化

这里有个小注意的地方,新的ultralytics8.2版本最近更新的比较多,导出模型前最好看一下源码,虽然区别不大,改的时候对应自己用的版本改就可以。topK,low_score_thresh,num_thresh 这些参数后面都可以在程序里改,不用太在意。这里数据格式按照自己的图像输入格式而定,输入格式有特别多的格式,依据自己的程序来配置。我训练的模型是两个类的,这里面class_num和自己模型的类别数有关系。另外导出时选择Onnx12的版本,13,14的版本可能会有问题。导出后的模型结构是这样的。

2024-07-03 15:35:07 848

原创 OpenVINO简介

OpenVINO(Open Visual Inference and Neural Network Optimization)是由Intel开发的一款用于优化和部署深度学习模型的开源工具包。它主要针对视觉、音频等应用领域,提供了深度学习推理的加速。OpenVINO工具包支持从云端到边缘设备的深度学习模型优化,能够跨多种硬件平台加速推理过程,包括CPU、GPU、FPGA、AI加速器等。

2024-06-20 18:01:36 1404

yolov8识别跟踪GUI

使用qt编写的yolov8识别GUI, 跟踪包含deepsort,支持yolov8全系列模型 输入支持图片、照片、RTSP源 含源码

2023-12-20

迷彩等伪装形态的人数据集

采用迷彩、树叶等各种隐蔽手段伪装的人 用于伪装人体目标识别数据图片

2023-09-25

txt标注转换xml格式

数据集处理 txt标注数据转换为xml格式

2023-09-23

JSON标注转XML标注

JSON标注格式数据转换成XML标注格式, 用于数据集处理

2023-09-23

python数据集增强

对数据集进行增强 包括数据旋转,翻转等操作,扩充数据集

2023-09-22

MATLAB批量文件重命名

使用MATLAB批量重命名文件 案例中是对图片数据做重命名

2023-09-22

matlab数组初始化

matlab初始化数组

2023-09-22

matlab数组初始化

matlab初始化数组

2023-09-22

MATLAB YUV数据转为视频

matlab 矩阵数组

2023-09-22

MATLAB YUV数据转为视频

matlab 矩阵数组 YUV数据转换成AVI视频格式

2023-09-22

MATLAB视频自动生成图片集

matlab 矩阵数组 视频自动生成为图片数据集 可以自定义时间间隔,保存文件路径与名称规格

2023-09-22

MATLAB视频自动生成图片集

matlab 矩阵数组 视频自动生成为图片数据集 可以自定义时间间隔,保存文件路径与名称规格

2023-09-22

MATLAB视频自动生成图片集

matlab 矩阵数组 视频自动生成为图片数据集 可以自定义时间间隔,保存文件路径与名称规格

2023-09-22

150种不同型号坦克图片数据

150种坦克,包含型号名称与对应的图片。 总图片数量为1079张

2023-08-30

PAL/CVBS转BT656板卡图纸

包含原理图,PCB,PDF 经验证百分百可用,可作为二次开发图纸 解决模拟视频转数字视频的设计 转换后可接入不同的主流芯片进行处理。

2023-06-02

热红外多人识别跟踪测试用视频

包含三个视频文件, 专门用于热红外多人识别,多人跟踪测试用, 同样也可用于目标跟踪,人车识别。

2023-06-02

SD3403运行caffe模型样例

## Ascend NNN介绍 ➢ Ascend NNN 为新一代图像分析工具加速器,前端支持开源 AA 框架(Caffe),后端支 持 NNN /CPU的异构计算,提供完整的软硬件计算加速方案。 ## 部署架构 NNN 环境包含PC端工具侧开发环境和单板侧板端环境,支持TensorFlow、PyTorch、Caffe、ONNX四种模型,当一个训练好的模型传递过来后: ➢首先可以经过AMCT(Ascend Model Compression Toolkit,昇腾模型压缩工具)进行量化,将模型中部分层量化为8bit计算,提升计算效率; ➢其次使用ATC(Ascend Tensor Compiler)工具将量化后的模型或非量化的模型转换为Ascend NNN 认识的离线模型; ➢ 最后,离线模型放置在板端环境,即可进行推理。

2023-06-02

jbr库用于MindStudio安装用

jbr库用于MindStudio安装用

2023-01-06

训练用负样本批量生成代码

代码真实可用, 从文件中批量读取图片,自动生成成负样本标注文件 格式为PASCALVOC格式的xml文件 亲测可用!

2022-12-22

Python数据增强源码

用于目标检测训练前的数据增强,包含图像翻转和任意角度旋转 代码保障100%可用 适用于PASCAL标注的数据集,可批量处理 自动生成新的数据集。 输入为图片与标注的文件路径,输出后为转换后的标注和图片,命名均用转换方式来加前缀 代码清晰易于理解

2022-12-19

水中气泡目标自动检测算法

MATLAB程序 清水中包含有气泡,用算法自动检测出气泡,并给出气泡的数量和位置, 软件中用小十字标标识气泡。 算法用机器视觉方法实现,简单易用

2022-12-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除