- 博客(19)
- 收藏
- 关注
原创 国产UR12e使用ROS驱动以及上位机控制urcap的尝试
国产UR12e使用ROS驱动以及上位机控制urcap的尝试。祝愿中国的技术社区能够更加完善,机器人开发的生态更好!本帖子记录自己的开发历程,不涉及任何技术指导,只是希望如果有人遇到我们这个超级大坑,能看看我们的经验,能帮助到一些同样问题的人我就很高兴了。因此大家不要轻易进行下文中对机器人系统的一些奇葩操作。
2025-03-19 19:15:47
246
原创 ImportError: /usr/lib/x86_64-linux-gnu/libp11-kit.so.0: undefined symbol: ffi_type_pointer, version
本帖子记录ROS开发报错:ImportError: /usr/lib/x86_64-linux-gnu/libp11-kit.so.0: undefined symbol: ffi_type_pointer, version LIBFFI_BASE_7.0的解决方案。具体场景是我在一个新的python版本下部署曾经的已经调好的moveit,执行moveit_commander时,出现的问题。这个问题通常与libffi版本冲突有关,可能是libffi库版本不匹配或者损坏了。
2025-03-18 14:18:02
277
原创 Docker使用宿主机GPU驱动:绕开nvidia docker的神奇方法
当我们在一个docker的容器中想要使用GPU时,往往需要从docker image构建之初就开始使用nvidia docker。有的,兄弟,有的,这样的方法我问GPT了还有1种。
2025-03-17 15:43:40
359
1
原创 ROS双机、多机通讯/主机从机通讯/一个ROS Master的网络通讯
我现在要实现主从机在局域网内的通讯。我希望主从机能够互相ping通,这样我能够在主机上启动ROS master,从机能够访问到ROS节点
2025-01-10 16:23:38
345
原创 (ROS1给UR机器人添加命名空间/给已经配好Moveit的整个完整系统添加 命名空间 隔离干净彻底 的操作记录) + (Moveit知识细节,加载逻辑与原理)
我认为,想把一个机器人的命名空间隔离好,需要分为以下几层改动:1. 外部控制(UR10e 驱动文件)表层改动,大概牵扯到 ex-ur10-1.launch、ur_common.launch、ur_control.launch事实证明,只添加和 指定 tf_prefix参数,不能解决问题。。。2. Moveit启动,表层的几个launch我这里大概跳转10个左右的launch,其实就是Moveit表层各种启动项,但是并不是所有launch都能被ns参数影响到的。
2025-01-10 16:02:37
1108
原创 详细解析并部署 Moveit servo 控制UR10e( /速度控制/伺服控制 )(ROS 1+Moveit 1)版本!!
1. 最近配置了Moveit servo用于从速度层面控制UR10e真机,摆脱了moveit_commander.MoveGroupCommander从位置层面控制响应慢,无法形成闭环的尴尬。Moveit servo配置花了非常多时间,由于我要配置的是ROS 1+Moveit 1环境下的,这个网上中文资料很少,github和Moveit 官方文档也都是UR5或者非常抽象的介绍,因此这里我准备把自己配置的详细过程记录下来,防止遗忘。同时发扬一下开源精神!
2024-12-19 19:31:26
1543
1
原创 使用Grub命令行启动ubuntu(救系统)
今天启动工控机,是ubuntu 22.04的,发现启动项出了问题。而且按F7,F12等都没用,bios也进不去。文件的相对路径,这里的版本通过tab能看到可用的文件,代表了内核版本。我的内核是6.5的我就找这个6.5的就行了。2. 我的系统在gpt2里,还能看到我上次启动它的时间,这里用tab补全,发现里面有boot,很好。经过查阅网上大神资料,单纯使用grub命令救回来了,其实就是要指定系统分区在哪里,去启动它就好了。6. 运行以下 GRUB 命令来引导至 Ubuntu 操作系统。3. 使用以下命令将。
2024-09-11 12:25:22
1726
原创 神经网络使用openvino加速
这里有个大坑,费了很多时间,就是onnx转xml和bin时用到mo.py文件,这个东西要去python安装路径下site-packages下找而不是在openvino安装路径下找mo.py,尽管都有......最近需要把VIT等一系列网络放在openvino上加速,花了很多时间,特此总结记录,以后来查看。核心思路就是实例化后先转onnx再转xml和bin。
2024-07-01 12:57:25
263
原创 Ubuntu20.04下U盘变成只读-只读文件系统
之前拷数据没有拷完就把U盘拔掉了,后来发现不管插在哪台机器上都是无法往里面拷贝东西--只读文件系统--无法更改权限。记录一下防止以后再遇到。最后重新插拔就好咯!
2024-05-10 17:48:03
688
1
原创 .detach()和.clone()的区别
最近在Pytorch下手搓神经网络计算图时,遇到了一些问题,我发现很多莫名其妙的梯度中断或者tensor值异常都源自于相应的,为了保证梯度连续,往往需要再找一个变量,先赋值,再对新变量处理。或者就把运算符写开:tensor = tensor + new_tensorer而不是tensor += new_tensorer。
2024-04-12 15:12:14
377
1
原创 open-mmlab/mmdeploy部署常用步骤及命令行
最近在用MobileVIT跑分类,突然发现mmdeploy项目部署训练真的超级方便,记录一下训练历程,有一个容易忘记的是记得修改work_dir,这是工作空间,忘记修改很容易覆盖掉前边的。这里直接指定配置文件就行了,训练时预训练权重在配置文件里已经指定了。参数这个我一般不用,需要改的在config改了。对测试集全部测试:这个是批量测试。5. 最后放一下官方文档链接。,防止以后再使用时遗忘。2. 修改网络配置文件。
2024-04-12 14:59:02
308
1
原创 tmux使用快捷键
远程跑代码使用MobaXterm,连上机器把代码挂上去就下线玩去了,想等其跑完再连上看结果,这时就用到了tmux。奈何之前老师教过,但时间长不用就容易忘记,记录一下快捷键供自己参考。
2023-11-27 15:11:18
706
原创 寻找网络训练最佳超参数方法
记录一下使用ray[tune]的方法。。main函数中调用train_accuracy函数对指定范围的超参数进行训练,这里可以通过。reduction_factor=1.5来选定保护轮次大小150和最大终止范围1.5倍。最后是指定几组同时运行寻找最佳超参数。在训练函数最后记得report。在训练函数内先指定待变化的超参。
2023-09-11 18:50:43
159
原创 神经网络反向传播过程中,函数中间变量梯度的查看、修改方法(计算图中间变量梯度查看、修改方法)
很多时候在BP过程中需要查看某个变量的梯度,来看看到底在梯度计算和计算图计算过程中发生了什么,如果是叶子节点,或是神经网络内部的节点,或者是loss等值还好,可以使用pytorch自带的 .grad 方法直接查看。但是如果想查看的中间变量是自定义函数计算过程中的非叶子节点,这些中间变量的梯度在函数执行后是不能在函数外查看的,就需要用hook的思想,把他勾出来记一下。
2023-05-11 16:19:59
755
原创 命令行读取用户输入参数,快速调整代码中的超参数进行训练
上边的这个示例中,使用argparse模块创建了一个ArgumentParser对象,并添加了三个超参数:batch_size、learning_rate、clip。我在训练一个自己的mlp网络,但是我发现一个问题,就是调整超参数的时候,调节batchsize,学习率,梯度裁剪等一些参数,每次我需要调节时都需要在代码里找到这些超参数的位置。可见,使用argparse模块,将超参数转化为命令行参数,这样就可以在命令行中方便地输入并调整超参数,而不需要每次手动修改代码。
2023-05-11 15:59:48
233
原创 捕获神经网络训练过程中的Checkpoints方法
有时候自己写的网络模型在训练时想看某个epoch的模型参数,或者想按照某一epoch的模型参数进行测试,就需要看log相关的checkpoints。
2023-03-23 12:23:02
1243
原创 loss不下降,loss震荡的原因
1、梯度消失或爆炸:神经网络层数较深,可能出现梯度消失或爆炸的情况,导致无法正确更新网络参数,从而导致loss函数的摆动。2、学习率过大或过小:学习率过大会导致训练过程中震荡,而学习率过小会导致训练速度过慢,可能需要通过调整学习率来解决这个问题。3、过拟合或欠拟合:过拟合或欠拟合都可能导致训练后期的loss值波动较大。过拟合指模型在训练集上表现良好但在测试集上表现不佳,可能需要增加正则化项或减小模型复杂度;欠拟合指模型在训练集和测试集上表现都不佳,可能需要增加模型复杂度或增加训练数据量。
2023-02-23 17:30:17
8176
原创 pytorch中使用torchviz可视化某网络或loss函数计算图后,计算图节点的理解
torchviz输出网络结构计算图,计算图节点的理解
2023-01-30 17:38:35
1712
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人