自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 基于RK3588的多路多模型推理

你别说还真有人做过,firefly这家公司就有帮人做过这个方案,但是不是开源的。这样,每个类推理的模型就不一样了。我测试了,可以同时推理三路三个不一样的模型,也就是说在一块开发板上可以同时推理三个目标检测、分割、姿态检测模型。首先我的原始推理代码是基于多线程的,然后是基于对象来的。那就每次初始化类时,都是用多线程,然后每个类的模型不一样就行了,但是要注意后处理的匹配。目前我做的还是简单版的,因为确实没有实际项目需要我这套方案。目前手里头继续开展多路摄像头推理,原本为了推理效率,多少路就用多少块板子。

2025-07-24 08:33:31 359 5

原创 基于RK3588的多路摄像头目标检测

所以,我的想法可能不太一样,因为知道RK3588是可以多路摄像头进行取流的,并且效果都还不错,并且算力也非常顶,拥有3核npu。单独处理YOLOn模型的int8,可以跑100多帧,所以跑四路摄像头都可以跑满摄像头帧率(30帧),所以我自个花了半天时间做了一个多路视频流的算力盒子,目前手里头就只有俩摄像头,然后可以顺利运行,并且处理效果和延迟都极低。目前公司想做一个多摄像头多视角目标检测和跟踪的系统,当然领导的想法就是多塞几块板子,多烧点钱。然后可以看到,两个摄像头检测资源占用率还是很低的。

2025-05-28 10:56:57 533

原创 RK3588利用http协议+目标检测制作一个AI监控。

所以我受到sherpa-onnx框架的启示,利用http来推流,然后制作一个网页web,来进行读流,发现效果还不错,延迟基本上就200-300ms左右,帧率的话基本上跟本地读流差不多。它不断地读取摄像头的帧,将原始帧放入 RKNN 池进行推理,获取处理后的帧(带有标注信息),然后进行报警检测、录像等功能。这些线程负责从队列中获取待处理的帧,使用 RKNN 模型进行推理(执行 myFunc 函数),并对帧进行标注等操作。所以效果还是很不错的。启动,用于从摄像头捕获视频帧,并将其放入 RKNN 池进行处理。

2025-04-18 09:06:56 515 2

原创 基于安卓平台的Yolov8+Bytetrack,实现多目标跟踪。

创作灵感#最近在实习了,主要工作是进行计算机视觉的调优。同时负责在嵌入式平台的部署。公司拿出的方案是在RK3588上面部署,但是居然不用RKNN的方案,转而用安卓平台,你敢信!?说是为了后续代码的通用,好吧...所以这一期就分享一下我在安卓平台部署yolov8+bytetrack的过程吧。。。

2025-04-01 10:17:03 1773 1

原创 RK3588将yolov8封装成ros包,并且利用rknn2的多线程运行

最近在做机器人相关的视觉,谈到机器人就绕不开ros这个话题。接下来就记录一下从0开始部署封装一个ros-yolov8-rknn2_MultiThread_pool。rk3588是拥有多核npu的,如果你只用单核npu那你就太low了。yolov8n模型都达不到30帧。在这里呢,借鉴了这位大佬的项目,因为他写的模型后处理是最方便我们进行模型转换的,非常适合小白。他的后处理函数是适配rknn官方yolo项目的。

2025-04-01 08:40:26 783 1

原创 单目相机、双目相机、imu标定学习(单目和双目是利用OpenCV的方法,也可以利用ros1的kaliber)

2、因为板端原来只有ros2系统,所以还需要安装ros1的包,方便后续的标定。然后在ros2里下载ros1_bridge包,实现ros1和ros2的通信。3、录制imu的bag包,利用rosbag(ros1的包),去录制imu数据包(静止3h以上最佳)1、利用读取imu数据的功能包,读取imu数据,方便后续进行录制bag包。3、ros编写一个节点,用于订阅相机话题,然后在回调函数里读取yaml文件,进行图像处理。2、编写代码, 利用OpenCV去进行标定,获取相机的标定参数,得到yaml文件。

2024-06-25 21:25:57 762

原创 Linux小相机(利用V4L2接口编写,保存格式为Mat)

这段时间一直在做Linux视觉相关的学习,一直弄不清楚V4L2相关的操作。所以本着学习的态度,制作一个Linux小相机。本次工程是基于正原子的i.IMX6null开发板+USB免驱摄像头+任意显示屏。至于为什么要转为Mat格式呢?因为在后期进行深度学习时,利用OpenCV来处理是非常方便的。

2024-05-20 21:32:48 1187

原创 全志V853的opencv4编译部署(适合小白的保姆教程)

之前一直在做全志V853的视觉开发。想要进行视觉处理,例如算法的部署、图像处理等等都需要opencv这个库。但是全志提供的普通用户SDK是没有OpenCV的,导致我在编译许多包含OpenCV的项目一直无法图通过,最主要的原因是链接不到OpenCV的库文件。而且你编译通过了,板端却没有OpenCV的链接库,在板端运行时也会出错。虽然官方论坛提供了许多OpenCV的编译示范,但是对于小白来说有一定的难度,我也不能咋看得懂。,并且在板端也能够正常运行相关程序。但是我们想要基于V853实现呀。

2024-03-29 21:30:11 908 1

原创 基于全志V853的弹孔识别(利用Opencv库处理)

首先我们在原图中找到我们需要截取的区域,确定四个顶点,如src_points所示,其次定义这几个点映射到我们需要得到的图片中。如dst_points,我们希望得到的图片大小是500x500,所以取(0,0)(0,500)(500,0)(500,500),这几个点就对应src_points的点。1、摄像头所拍摄到的图片是存在畸变的,并且实际拍摄是存在角度的,所以我们需要对图片进行校正。之后,我们可以运用opencv的findContours函数去寻找弹孔在图片的位置,进而得到弹孔的中心坐标。

2024-03-20 22:41:14 967 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除