- 博客(111)
- 资源 (7)
- 问答 (1)
- 收藏
- 关注
原创 ubuntu20 使用 pyspacemouse获取 spacemouse wireless 输入
(3) 断开并重新连接 SpaceMouse Wireless。移动spacemouse的摇杆,终端会输出对应的。(4) 注销并重新登录ubuntu。ubuntu20下按已下命令安装。,应该会有一个能正常打开设备。是 Product ID。是 Vendor ID,
2024-12-07 11:03:47
581
原创 ubuntu 配置 spacemouse以及通过python/robosuite使用spacemouse
3dconnexion 早在2014年就不更新对linux系统的驱动,因此安装驱动需要参考另一个网站:https://spacenav.sourceforge.net/
2024-04-12 12:16:11
1743
4
原创 如何在Robosuite中导入自建的物体模型
Robosuite是基于mujoco封装的机器人操作库,而mujoco的碰撞检测是基于凸壳,也就是geom必须是凸的,如果是凹的话,凹的部分会有一个透明的屏障而无法与其他物体有碰撞。但是实际场景很多物体都不是凸的,比如杯子的口是凹进去的。
2023-09-13 18:39:51
1398
原创 扩散模型原理记录
参考资料:[1]【54、Probabilistic Diffusion Model概率扩散模型理论与完整PyTorch代码详细解读】[2]以下内容为对上述资料的补充理解,理解不对的地方,请多指教。以下序号与资料中的章节序号一致。
2023-04-21 16:51:05
1077
原创 机器人操作——diffusion policy(2023)
机器人操作领域发论文的热点又来了。扩散模型大概率很难和强化学习结合,因为强化学习需要网络足够小从而在每次更新的很短时间内收敛,不过基于扩散模型的动力学模型可以试试。
2023-03-18 15:27:39
5414
6
原创 robosuite添加无碰撞的模型
形状尺寸与操作的物体一样半透明只有visual,不与场景其他物体有碰撞可以在每次step后设置位置,且固定在设定的位置,不受重力影响。
2023-03-09 17:04:32
702
1
原创 机器人操作规划——Deep Visual Foresight for Planning Robot Motion(2017 ICRA)
model-based RL方法,预测Action对图像的变化,以push任务进行研究。采用完全自监督的学习方式,不需要相机标定、3D模型、深度图像和物理仿真。
2023-02-16 15:51:35
658
原创 机器人操作综述——A Review of Robot Learning for Manipulation: Challenges, Representations, and Algorithms
机器人操作综述——A Review of Robot Learning for Manipulation: Challenges, Representations, and Algorithms
2023-02-15 16:09:54
1045
原创 欧拉角计算方式记录
最近在手动计算world坐标系到camera坐标系的欧拉角时,发现基于该欧拉角进行坐标转换,结果一直不对。但是之前直接在mujoco中读取欧拉角用于坐标转换时,一直没有出过问题,所以猜测是旋转轴用错了。
2022-12-28 16:14:10
508
1
原创 解决robosuite设置has_offscreen_renderer=True时报错ERROR: GLEW initalization error: Missing GL version
是因为mujoco-py会自带openGL,而我自己又在nvidia显卡驱动里安装了openGL,当使用可视化绘图(has_renderer=True)时,会使用mujoco-py自带的openGL,当不进行显示时(has_offscreen_renderer=True),会使用自己安装的openGL,自己装的openGL版本太高就会报错ERROR: GLEW initalization error: Missing GL version。
2022-11-02 15:07:34
736
1
原创 robosuite(mujoco)中机械臂action与实际运动不一样的解决办法
最近开始搞机械臂强化学习,所以下了robosuite(https://github.com/ARISE-Initiative/robosuite)和stable_baselines3(https://github.com/DLR-RM/stable-baselines3),在测试demo时,发现了一个共同的问题。以robosuite的demo_random_action.py为例,在基于UR5e的Lift任务中,设置机械臂控制模式为末端位姿控制,发布action[0,0,0.01,0,0。
2022-10-31 20:17:11
3123
2
原创 机器人强化学习——Comparing Task Simplifications to Learn Closed-Loop Object Picking Using DRL(2019 RAL)
任务是reach、grasp、lift,比较了reward shaping、curriculum learning、迁移学习,并迁移到了真实机器人场景中。本文抓取的方法框架是QT-Opt。尽管迁移到现实场景中的抓取成功率只有78%,但是通过更好的sim-to-real方式能提高。平移的action使运动有点不稳,policy预测速度或扭矩会使运动更平滑。
2022-10-24 16:58:45
859
原创 机器人强化学习——Data-Efficient Hierarchical Reinforcement Learning
以前的分层强化学习在一个学习的嵌入空间中表示goal和reward,本文直接使用原始形式的观测数据作为goal。并且以前的方法使用on-policy学习 生成目标状态,效率低。离线学习面临的问题:(1)off-policy算法不稳定(2)在离线数据中,相同的高维goal不一定对应相同的低维action。具体解释在后面针对第二个问题,本文提出。
2022-10-15 16:02:21
878
原创 机器人强化学习——IRIS: Implicit Reinforcement without Interaction at Scale for Learning Control。。(ICRA 2020)
算法核心:将策略木比分解为两步:(1)低维目标导向的模仿学习(2)高维目标选择低维控制器从演示数据中学习短期序列。高维目标选择机制为一个生成模型,生成目标和对应的值函数。给定当前观测,高维控制器选择一个新目标,低维控制器走TTT步来达到该目标;该过程重复直到任务结束。本文主要解决的问题是:如何仅从大尺度的离线数据中学习policy,不与环境进行交互。
2022-10-15 10:00:44
533
原创 为什么PPO不可以像DQN一样使用Replay Buffer?——强化学习
为什么PPO不可以像DQN一样使用Replay Buffer?——强化学习
2022-10-12 09:52:16
2283
原创 为什么DQN不需要important sampling?——强化学习
分析这个问题要从重要性采样和target policy的本质出发,本文分为以下三步来介绍DQN为什么不需要重要性采样:重要性采样的目的、target policy和behavior policy的含义、DQN为什么不需要重要性采样。
2022-10-11 17:55:06
1280
原创 机器人学习之ReorientBot: Learning Object Reorientation for Specific-Posed Placement(ICRA 2022)
机器人学习之ReorientBot: Learning Object Reorientation for Specific-Posed Placement(ICRA 2022)
2022-08-17 17:42:26
567
原创 机器人强化学习——COCOI: Contact-aware Online Context Inference for Generalizable Non-planar Pushing(21 ICRA)
机器人强化学习——COCOI: Contact-aware Online Context Inference for Generalizable Non-planar Pushing(21 ICRA)
2022-07-28 22:55:47
1906
原创 机器人强化学习——Learning Collaborative Pushing and Grasping Policies in Dense Clutter(ICRA 2021)
机器人强化学习——Learning Collaborative Pushing and Grasping Policies in Dense Clutter(ICRA 2021)
2022-07-09 22:08:35
748
原创 机器人强化学习——Learning Visual Affordances with Target-Orientated DQN to Grasp Objects (ICRA 2021)
机器人强化学习——Learning Visual Affordances with Target-Orientated DQN to Grasp Objects (ICRA 2021)
2022-07-08 18:02:56
727
原创 机器人强化学习——Learning Pregrasp Manipulation of Objects from Ungraspable Poses (ICRA 2020)
机器人强化学习——Learning Pregrasp Manipulation of Objects from Ungraspable Poses (ICRA 2020)
2022-07-08 10:22:23
1931
4
原创 机器人强化学习——Learning Synergies between Pushing and Grasping with Self-supervised DRL (2018)
机器人强化学习——Learning Synergies between Pushing and Grasping with Self-supervised DRL (2018)
2022-07-01 09:22:00
452
原创 机器人强化学习——Transferring End-to-End Visuomotor Control from Simulation to RealWorld (CoRL 2017)
机器人强化学习——Transferring End-to-End Visuomotor Control from Simulation to RealWorld (CoRL 2017)
2022-06-26 20:28:24
625
原创 MAML (Model-Agnostic Meta-Learning) 解读
MAML (Model-Agnostic Meta-Learning) 解读
2022-06-21 17:55:27
886
原创 机器人强化学习——Sim-to-Real Robot Learning from Pixels with Progressive Nets (2017)
机器人强化学习——Sim-to-Real Robot Learning from Pixels with Progressive Nets (2017)
2022-06-17 22:23:04
1910
原创 基于强化学习的机器人抓取之 stochastic search
前言最近看google的机器人抓取算法QT-Opt,该方法通过stochastic search为每一个state选择action。沿着参考文献一路找到google的Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection,以及Deep Reinforcement Learning for Vision-Based Robotic Grasping: A Si
2022-05-25 17:14:37
749
转载 Visio插入图片再输出pdf失真 的一种解决方案
原地址:https://blog.youkuaiyun.com/qazwsxrx/article/details/1091964541.直接“文件”->选"打印";2.打印机选Adobe PDF(或Microsoft Print to PDF);3.页面设置(关键);4.打印纸张如果选择A0,打印缩放比就选为400%;如果是A2,就选200%;5.打印保存为电子版,完成。...
2022-03-29 11:06:37
1966
2
原创 win10配置GraspNet(亲测可用)
1 GraspNet下载地址https://github.com/graspnet/graspnet-baseline2 win10环境显卡 2080Scuda 10.1 update 2python 3.6torch 1.6其他按照GraspNet的需求安装
2022-03-23 10:50:50
3192
8
boostdesc_vgg.zip
2020-05-14
3.4.5-ippicv+ffmpeg.zip
2020-05-14
3.3.0-ippicv+ffmpeg.zip
2020-05-14
基于精确背景补偿的动态目标检测.zip
2020-03-17
基于精确背景补偿的动态目标检测算法.zip
2019-05-26
pybullet加载的URDF模型不显示全部的颜色材质
2021-12-29
TA创建的收藏夹 TA关注的收藏夹
TA关注的人