2019/5/8

博客提出基于期望最大化的强化学习算法PoWER,用于改进TSM机器人逆运动学模型,提升追踪精度。该算法无需学习率参数,便于利用经验。还使用高斯噪声模拟干扰,搜索参数空间改进模型。此外,介绍了Web of Science检索达芬奇手术机器人运动控制相关内容,包括医疗机器人综述和一种增强学习算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、Towards Transferring Skills to Flexible Surgical Robots with Programming by Demonstration and Reinforcement Learning

                                                                                               

Tendon-driven flexible serpentine manipulators(TSM,肌腱驱动蛇形机器人)                                       算法

提出一种基于期望最大化的强化学习算法PoWER,改进TSM机器人逆运动学模型提升追踪精度。与策略梯度法相比,PoWER不需要学习率参数(learning rate parameter),采样合并( sampling incorporated)便于利用经验,使快速易于实现。

使用高斯噪声模拟模型不确定性和干扰。PoWER搜索参数空间改进干扰模型并在线最大化奖励函数(maximize the reward function on line ),使收敛到标准逆运动学模型。

二、Web of Science 检索 Da Vinci surgical robot + motion control

1、Review of emerging surgical robotic technology

医疗机器人综述

2、A sequential windowed inverse reinforcement learning algorithm for robot tasks with delayed rewards

一种增强学习算法,以达芬奇为例

3、五页加

 

                                                                       

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值