25、安全人机交互中机器人行为设计策略解析

安全人机交互中机器人行为设计策略解析

1. 多智能体系统信息结构

在多智能体系统里,每个智能体都要考虑其他智能体的情况。在选择控制策略 (u_i) 时,智能体 (i) 需考虑其他智能体可能采用的“策略”,也就是其他智能体可能选择的控制信号 (u_j)。信息结构明确了在智能体决定控制策略时,哪些信息可供哪些智能体使用。
- 同时博弈 :当所有智能体基于相同信息集独立行动,在采取下一步行动前没有交互,这种情况属于同时博弈,该系统的最优解定义为纳什均衡(若智能体的效用信息不公开,则为贝叶斯纳什均衡)。
- 序贯博弈 :当部分智能体在决定自身控制策略前,通过观察 (x_j) 了解到其他智能体的 (u_j),这就是序贯博弈,其最优解定义为斯塔克尔伯格均衡(若智能体的效用信息不公开,则为完美贝叶斯均衡)。被观察的智能体为领导者,进行观察的智能体为追随者。

对于安全导向的人机交互,可将其建模为序贯博弈,且被控制的机器人始终作为追随者,原因如下:
- 这是一种保守策略,从安全角度来看是有利的。
- 通常认为机器人的反应时间比人类短,能够快速适应人类的动作,符合追随者的特点。
- 机器人要分析人类的控制策略,需要知道人类的成本函数,但这很难获取。所以假设在机器人行动前,人类的所有策略都已通过其过去的行动展现出来,那么机器人只能作为追随者,采取被动反应策略。

2. 安全导向的行为设计

机器人的行为由机器人控制器 (g_i)((i \in R))决定。设计 (g_i) 的目标有两个:一是找出机器人行动的安全边界,确保其相对于人类的行为和反应是安全的;二是

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值