自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 关于坐标系A与坐标系B之间的位姿变换矩阵-“先旋转后平移”与“先平移后旋转”的思考(由RM65B机械臂示教器计算角度)

1.组合方式ZDY:在RM65B机械臂的上位机,也就是示教器中,直接显示的是平移向量(tx,ty,tz)与欧拉角(rx,ry,rz),这两个数值,(tx,ty,tz)是基坐标系A下末端坐标系B原点的三维坐标,(rx,ry,rz)是基坐标系A的三个轴与末端坐标系的三个轴的夹角。那么由基坐标系A到末端坐标系B,应当是先沿着基坐标系A自身的三轴平移(tx,ty,tz),再绕着基坐标系A自身的三轴旋转(rx,ry,rz),这样基坐标系A变换完就会与末端坐标系B重合。因此,我们在运算过程中,均以先旋转后。

2025-03-10 11:17:19 315

原创 Matlab下机械臂的工作空间分析-MDH法(针对RM65-B机械臂)

在MATLAB里,主页栏下点击【设置路径】,点击【添加文件夹】,将刚刚拷贝到MATLAB安装目录下的/toolbox/rvctools添加进去,然后保存即可。1. 首先参考以下链接安装配置一下Robotics Toolbox10.2,以下安装步骤我是直接参考的下面链接。:解压zip文件,将/rvctools文件夹复制到自己的MATLAB安装目录的/toolbox下面。,查看是否成功加载,输入ver可以查看版本信息。每次运行机器人工具箱之前,最好先输入。:在MATLAB的命令行窗口输入。

2025-03-05 08:03:18 205

原创 Ubutun 20.04 安装配置深度学习环境(yolov5/v8/v11算法)

若没有驱动,则打开系统设置->软件和更新->附加驱动->选择NVIDIA驱动->应用更改(选择好显卡支持的驱动,之后应用更改等待安装完成即可。我这里是rtx 2060的显卡,支持535的驱动。先打开终端运行:nvidia-smi ,查看是否已安装显卡驱动。显示如下即安装过了,并且可以看见最高支持的cuda版本是12.2。2. 安装miniconda3。可以先进入以下网站中。

2025-03-04 23:49:05 282

原创 YOLOv5-6.1版本标注目标检测像素点中心并输出锚框角点坐标

5. 设定上述代码后,之后运行detect.py文件来检测图片,即可输出每个目标锚框的角点坐标与中心点像素坐标,并在图片中显示标注的锚框中心像素点坐标。4. 中心点标注代码与设置注释。可以参照注释自行调整中心标注点与坐标信息的位置和大小。3. 定位plots.py中添加标注中心点的代码。2. 打开plots.py。

2025-03-03 11:11:48 387

原创 labelimg使用教程

3.设定xml标签文件格式。4.设定图像与标签文件路径。

2025-02-27 23:34:57 214

原创 睿尔曼RM65-B机械臂与RealsenseD435i相机的坐标系转换

上述链接是之前写的“手眼标定”的文章,在我后续学习过程中,我想要根据机械臂上位机提供的机械臂基坐标系下机械臂末端的六个位姿参数,构建机械臂基坐标系到机械臂末端坐标系的位姿齐次变换矩阵(base_to_hand),以及机械臂基坐标系到相机坐标系的位姿齐次变换矩阵(base_to_camera)。

2025-01-17 22:09:15 862 3

原创 深度学习环境配置-Miniconda3+CUDA11.3.0+CUDNN8.2.1+Pytorch1.11.0(GPU)+VSCODE软件

写在前面:对于YOLOv5s等深度学习算法,在本地进行环境配置的时候,需要相应的深度学习环境,最基本的配置就是anaconda+cuda+cudnn+pytorch+vscode软件,至于其他诸如numpy等小模块可以等安装完上述这些,在跑算法的时候再相应去pip install。创建好以后,激活该虚拟环境:conda activate yolov5,回车就可以进入刚刚创建好的虚拟环境了。注:为什么装miniconda3不装anaconda,上面视频链接中的up主做了解释,因为更轻量。

2025-01-03 10:31:00 914

原创 Realsense D435i相机实时采集图像

/深度坐标系对应的镜头内参就是左红外镜头的内参,并且左红外镜头与右红外镜头内参相同;需要注意的是,三个镜头的内参均与分辨率有关,分辨率不同,对应内参也不同,一般是指定RGB镜头分辨率为1280×720,左/右红外镜头分辨率为848×480。//深度坐标系以左红外镜头光心为原点,其x轴由左红外光心指向右红外光心,y轴依据像素平面垂直向下,z轴垂直于相机镜面向前。////RGB(彩色图像)坐标系以RGB镜头光心为原点,其x轴,y轴、z轴与深度坐标系正方向相同。

2024-12-28 09:49:47 810

原创 睿尔曼机械臂RM65-B与Realsense D435i相机的手眼标定!!

3)设定好以后,运行data_collection_d435_win/main.py,打开相机窗口画面,按s键即可保存一组图像与对应的机械臂末端位姿参数(六自由度参数)。但我自己跑源码的时候,发现了不少小bug,所以对源码做了一些修改,供大家参考,我这里只做了“眼在手上”(eye in hand)的手眼标定。我这里用的都是绝对路径,不容易出错。参考以下链接,可以在其中设定,棋盘格宽度、高度、单格尺寸、行数与列数,我用的是A3-12列×9行,单格尺寸30mm。4.文件夹内,文件作用简述。文件中标记处的路径,

2024-12-19 20:01:13 1151 5

原创 根据相机内参与畸变参数对图像进行畸变校正

新建data与data-jb文件夹,并将畸变待校正的图像放入到data中,运行以下代码即可进行图像的畸变校正,并输出畸变校正后的图像,保存到data-jb中。

2024-12-12 23:52:04 234

原创 利用棋盘格标定单目相机内参与畸变参数

它表示的是重投影误差的均方根值,即计算出的相机参数用于将三维世界坐标点投影到图像平面上时,这些投影点与实际检测到的图像点之间的误差的均方根值。具体来说,RMS值越小,表示相机标定的精度越高,计算出的相机参数越接近真实值。##4. 操作步骤:用相机拍摄多张棋盘格图片后,新建文件夹data并将拍摄得到的棋盘格图像放入,以下代码运行可以遍历data中所有的棋盘格图像;之后,代码会综合所有棋盘格图像的处理结果,输出相机内参、RMS值、畸变参数与畸变校正前后的图像角点检测结果。

2024-12-12 23:45:39 271

原创 获取并输出realsense d435i相机的所有镜头的内参与外参,其他realsense相机也可用

#获取并输出realsense相机两个红外镜头(infrared 1与2,1为左红外,2为右红外)的内参、rgb镜头的内参、深度镜头(可理解为两个红外联合得到的深度镜头)的内参、两个红外镜头间的外参、rgb镜头到两个红外镜头的外参、深度镜头到rgb镜头的外参。config.enable_stream(rs.stream.infrared, 1, 640, 480, rs.format.y8, 30)##注意分辨率,不同的分辨率对应的内外参不同。# 配置管道以流式传输深度和彩色流。# 创建一个管道对象。

2024-12-12 23:33:15 559

原创 配置yolov5s-7.0的环境

之后,在运行yolov5s-7.0代码的train.py前,在anaconda prompt终端,运行conda install git,以避免报错。

2024-11-27 19:46:19 237

原创 配置yolov5s等深度学习环境

4.在anaconda prompt终端,运行以下命令安装与cuda与cudnn版本相匹配的pytorch。2.参考以下链接,安装vscode+编译器选择+anaconda环境变量更改。3.参考以下链接教程,安装好cuda11.3.0,cudnn8.2.1。

2024-11-27 19:19:20 896

原创 GSConv+VoVGSCSP(Slimneck报错修正)

将GSConv部分的代码替换如下,其他保持不变。

2024-08-14 19:12:07 663 2

原创 YOLOv5s输出合并特征图并保持大小一致

在utils/plots.py中添加以下代码(只有这一段与参考链接中不同,其他一样),剩下的步骤可参考。

2024-04-24 22:09:49 451 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除