康复机器人交互控制框架

137 康复机器人

全引球言范围内受神经系统疾病影响的人数正在不断增加,这尤其与持续增长的 老龄化人口有关。例如,在发达国家,通常每年有1/500的人会遭受中风。因 此,在过去的三十年中,开发了专用机器人接口,旨在为神经系统受损的个 体提供足够的身体训练,尽管卫生系统的人力和财力资源有限(图1)。重要 的是,康复机器人与受训者之间的交互控制对运动功能恢复至关重要。例如, 临床试验表明,被动训练并非有效的策略,成功的康复需要受训者积极参与 运动任务执行[2,3]。

第5章 描述了已在康复机器人上实施并在临床试验中测试的各种交互式 控制策略[4,5]和在临床试验中进行了测试[2,3]。这些策略通常是临时开发 的,尚未被证明能够实现稳定交互。此外,控制通常将用户的手部运动限制 在一条直线触觉通道内,而重复运动中的变异性是伸手学习固有的特征[6,7], ,阻止这种变异性可能会损害学习效果[8]。

本章介绍了一种系统的交互控制框架来解决这些问题。为了开发合适的 控制策略,我们首先列出促进高效的机器人辅助神经康复的特性:
1. 交互控制应该是安全的。
2. 它应该是平滑的,以免干扰受训者的自然运 动。
3. 但是它应该能够强力拉动受训者的肢体,因为中风或脊髓损伤等神 经系统疾病可能会由于痉挛或肌张力障碍而增加肢体阻力。
4. 此外,控制应引导但不约束肢体运动,以免干扰重复运动中的大变异性。
5. 它应能考虑受训者当前的运动并能够适当地响应该运动。
6. 最后,控制应 适应受训者的运动能力,使其能够完成任务,同时受到挑战。

让我们简要评述这些期望的特性。为确保受训者与康复机器人之间的安全 交互(特性1),可采取多种措施,包括机械和电子停止装置、扭矩/力、加速 度和速度限制,以及为机器人用户及其护理人员配备电源断路器[9]。稳定平 滑的控制也有助于安全性。然而,大多数现有控制模式在空间和时间上均限制 肢体运动[4]。但人类在重复执行任务时,从不会采用完全相同的轨迹或肌肉激 活模式,重复运动表现出较大的变异性[10]。不干扰自然的运动变异性(特性 4)可能有助于提高训练效果并向真实任务迁移。特别是,通过轨迹控制在时 间上约束运动通常会让受训者感到困扰[11,12]并可能打乱他们的运动。此外, 类似于人类物理治疗师,康复机器人应分析受训者的实际表现,并在运动过程 中相应地调整其控制(特性5)。最后,许多研究者指出需要采用按需辅助控 制,该控制方式针对每位受训者的感知运动能力,使其能够成功完成任务[4], , 从而激励训练并让他们完成指定的运动任务(特性6)。此外,当受训者运动 技能提升时,重要的是相应地持续增加任务难度,使其保持在“挑战点”[13]。

为了设计具有这些特性的交互式控制框架,我们提出由机器人调节与受 训者的物理交互,就像人类物理治疗师进行一对一训练一样(图1A)。为此, 我们假设受训者和机器人或人类治疗师可以被建模为两个智能体,其任务和 行为由二次成本函数[14]描述。通过开发

示意图0

一种通过最小化生成成本来引导用户运动的控制方式,机器人治疗师将在到达 运动期间(属性2)平滑地引导用户朝向目标,而无需任何其他约束,例如使 用特定路径或轨迹(属性4)。

如何调节交互?近期的神经科学研究表明,人体运动控制对应于努力与 误差的最小化[15]。类似地,我们使用误差和努力的二次函数来计算机器人运 动指令[14]。机器人控制强度(属性3)通过调整努力代价项,在按需辅助适 应方案中逐次试验进行迭代适应,以提供刚好足够的辅助,使受训者能够成 功完成任务(属性6)。控制强度的迭代适应基于人类用户控制,该控制可直 接从运动中推断,或间接从偏差[15]或从连续试验中的运动平滑性[16]推断。

最后,利用控制理论工具确保稳定高效的交互。特别是,采用博弈论设计一 种直接依赖于受训者运动的反应式控制(属性5)。

在本章中,我们专注于笛卡尔空间中的点对点手臂运动,这是上肢物理神 经康复中最常用的方案。第“最优控制交互框架”节介绍了包含两个智能体的 最优控制框架,用于描述康复机器人与受训者之间的交互,并进一步说明该框 架对中风幸存者与HMan康复机器人交互时运动的影响(图1B)。随后,在 “基于博弈论的稳定、反应性和自适应交互控制”一节中提出了基于微分博弈 论的反应式控制器扩展,最后讨论了本章所提出交互控制框架的应用范围。

最优控制交互框架

我们希望分析物理治疗师或机器人如何协助神经功能受损个体训练从起始位 置到目标的手臂到达动作。设xh ≡ x分别表示人类学员和治疗师相对于目标的 位置偏差。设v为人类/机器人治疗师在x处对受训者手臂施加的力,uh为受训 者自身提供的力。这两个力共同驱动受训者手臂运动。

(1)

设置 v ≡ G + u,然后得到

(2)

其中,M、C 和 G 在神经康复期间通常训练的小幅度运动中几乎保持不变。

受训者和治疗师应根据哪些策略来控制手臂运动?[14]的框架可用于描述和实施 通过根据交互代理的个体代价函数(Vh 和 V)生成两个智能体的运动指令 (uh 和 u),实现多种交互式控制策略。在本节中,我们从该框架出发,描 述与物理训练相关的交互式控制策略。

被动训练的主从交互

对于无法自主移动手臂的功能受损个体 uh ≡ 0,手臂运动的动力由治疗师施加 的力 ť 提供u,形成一种主从关系,如[14]中所述。此外,我们可以假设治疗师 的指令 ťu 对应于在[10,15]中观察到的误差与努力的并发最小化

(3)

其中Q 和 R 是适当的(分别为半正定和正定)权重矩阵,例如具有正数的对 角矩阵。对应于方程(3) 解的线性二次型调节器(LQR)由此计算得到:

(4)

其中最后一项可识别为一个黎卡提方程[17]。注意,在式(3)的代价函数 (3) 中,Q 和 R 通常是对角矩阵,对应于点对点手臂运动中手部通常遵循的直线 运动[18]。不同任务对应的曲线几何可通过不同的代价函数描述,例如通过逆 向最优控制获得的代价函数[19]。

力 u 由人类治疗师或康复机器人提供,在后一种情况下,执行器的扭矩向量 τ可通 过雅可比矩阵 J 计算(通过 x J q qo()定义,其中 q 表示关节向量)[20]:

(5)

该方案可应用于非冗余末端型康复机器人,例如 MIT‐Manus[21], Gentle [22],或 EMU[23]。也可推广至冗余机器人接口,包括固定在身体上且关节与解 剖关节重合的手臂外骨骼,例如 CEA的ABLE[24]。在这种情况下,必须添加附 加约束以求解 xJq= 中的 q[20], ,这会影响公式 (1)。其中一个条件是最 小化关节速度平方:

(6)

其中 N 是一个正定权重矩阵。由于外骨骼关节空间 {q} 对应于受训者手臂的关节 空间,因此可选择 N 的分量以实现治疗ť 的目标,例如将训练集中在特定关节[25]。

物理康复中的教育型交互 N

与物理康复特别相关的是 教育关系 的[14]。与上述主从关系相比,在教育关 系中,运动由患者按照自己的意愿进行(患者自身是“主导者”),这通过 代价函数体现出来

(7)

物理治疗师协助患者执行公式(3)中规定的任务,其中z ≡ zh是患者与目标 之间的偏差。重要的是,在代价函数V(公式(3))中,治疗师最小化自身的努 力程度,从而保持患者在训练中的参与度,防止出现已知会限制运动功能恢 复的被动行为[2,3]。这两个代价函数(公式7, 3),用于刻画教育关系[14], , 因此可用于描述受训者‐物理治疗师交互,其针对机器人和受训者的独立解如 公式(4)所述。

与中风后个体的交互

上述在教育控制模式下的交互式控制器已在HMan上实现[1], ,HMan是一种 用于平面手臂运动的专用机器人接口。该系统已在新加坡陈笃生医院针对慢 性中风幸存者开展的临床试验中使用[26]。此处仅展示部分结果,以说明交互 控制的效果。

该试验的伦理审批已由机构委员会批准,所有试验环节均由一名生物工 程师和一名经过培训的职业治疗师监督。纳入试验的受试者均在实验前3个月 至2年间发生中风,且处于运动功能恢复的慢性阶段。他们的肌力在医学研究 委员会量表上的肩关节外展和肘关节屈曲评分为>3/5,Fugl‐Meyer上肢运动 功能评估(FMA)评分为20–50分。

示意图1

C通过竞争挑战物理康复

另一种可能促进神经系统受损个体运动功能恢复的交互类型是竞争,其中机 器人或人类治疗师通过设置冲突目标来挑战受训者。这种竞争性交互策略可 通过代价函数表示,能够激励患者最大程度地参与物理任务。

(8)

V z Q z u R u h h T h h h T h h º + .

V z Q z u R u z Q z u R u V z Qz u Ru z Q z u R u h h T h h h T h T h p T h p T T h T p h h T p = + + + = + + + h

基于博弈论的稳定、反应性和自适应交互控制

上述实现依赖于如公式 (7) 或 (8) 中的代价函数,对应于每个智能体在不考虑 同伴动作的情况下执行自身动作的情况。然而,人类治疗师在训练过程中可 能会考虑患者的正在进行的运动,以做出适当的反应。事实上,最近关于人 类之间物理交互的研究表明,个体会自动考虑同伴的运动以改善协同动作, 同时建立对同伴控制的模型[27–29]。

类似地,我们最近使用 微分博弈论[30]来创建一种反应式机器人行为,该行 为能够考虑人类用户的控制行为并在线适应它。由于每个智能体的控制器都会影 响同伴的表现,因此即使两个智能体具有相同的目标,它们也可能无法最小化各 自的代价函数(公式 7, 3)。在博弈论中,这可以通过确定两个智能体行为之间 的均衡来解决。这里,我们考虑的是 纳什均衡,它表示两个智能体在考虑自身代 价函数的同时,都对同伴做出了最优响应。

线性系统的微分博弈论[30]表明,机器人u和人类uh的控制输入以某种意义最小 化代价函数(公式 7, 3)纳什均衡的解,当P 和 Ph 由以下耦合的黎卡提方程计算得出时:

(9)

其中 Ar 和 Ah 分别是机器人和人类的闭环系统矩阵。 R 和 Rh 在公式 (7),(3) 中被假 定为单位矩阵,因此不出现在公式 (9) 中。在这些耦合方程中,求解 Ah (从而也 包括 L)需要用于求解 Ph,同样地,求解 Ar (从而包括 Lh)需要用于求解 P。这 说明了博弈论的工作机制:两个智能体根据同伴的控制器来更新自身的控制器, 以最小化各自的代价函数。相比之下,在机器人公式 (4) 的 LQR 解以及人类学员 的类似解中,最优增益是独立求解的,并未考虑同伴的影响。

由于机器人和人类的控制增益L和Lh彼此未知,因此有必要估计同伴的控制器。 让我们说明如何实现这一点。假设机器人使用以下模型来观测系统状态:

(10)

其中Γ是一个正定矩阵,ˆz是z的估计值,Δz是状态估计误差,而ˆuh是未知的 人类控制的估计值。确保适当的李雅普诺夫函数具有负梯度,从而得到以下 更新律,该更新律可最小化Δz并产生稳定交互:

(11)

其中 •表示逐元素乘法,而 ∂∂P Qh h 通过求解得到

(12)

人类学员的控制增益估计值可表示为Lh= BT Ph,其中Ph按公式(11)更新得 到。此外,基于对受训者控制增益的估计值Lh,机器人的控制器由公式u在公式(4)中给出,其中P由机器人的耦合黎卡提方程ť求解得到,如公式(9)所示。

当假设受训者使用类似于公式(10)−(12)的方法来估计机器人的控制器, 并且受训者开发自己的控制器uh时,交互式博弈论控制框架即告完成。所提出 的框架使机器人能够:(i) 在交互过程中估计受训者的控制器;(ii) 适应受训 者,以确保实现某种期望的交互行为。

我们进行了仿真,以研究对同伴控制器的估计以及基于博弈论的控制器 如何产生一种自适应控制策略,从而保证交互的稳定性以及成功到达。我们 将博弈论控制器与未考虑同伴控制的LQR控制器进行了比较

机器人辅助到达任务中两种典型场景下的行为。我们模拟了在40秒总时间内, 于−0.1和0.1米之间进行的10次前后reaching动作,质点机器人动力学参数设 置为质量= 6 kg,式(10)中的观测器增益为Γ ≡ diag(10, 1),式(11)中的学习率 为α ≡ 104 ,人类参数设置为观测器增益Γh ≡ diag(10, 1)和学习率αh ≡ 104。

第一种情景通过为代价函数分配符号相反的值来模拟机器人与人类相互 竞争的情况,Q= diag(200, 2) 和 Qh= −diag(180, 1.8)。需要注意的是,设置 负定的 Qh会导致控制器使系统失稳,这在控制设计的角度来看是不寻常的, 但却表达了机器人治疗师挑战其人类用户以促进学习的情境。图3A 展示了到 达运动过程中的位置曲线:使用博弈论控制器成功完成了到达任务,

在LQR下则不稳定并失败。对于LQR控制器而言,由于机器人和人类均未考虑同伴 的控制,双方都试图最小化各自的代价函数,整体系统行为则在两个个体目 标之间进行权衡。这一点可以在图3B和C中观察到,其中机器人和人类的控制 器增益大小相近但符号相反。图3B和C还说明了博弈论控制器为何能够实现控 制目标:机器人生成更高的控制器增益以补偿人类的控制器。该仿真展示了 估计同伴控制器的重要性,并体现了博弈论控制器的优势。

在第二种情景中,机器人和人类伙伴具有相同的代价函数,Q= Qh= diag(200, 2),以参与相同的冗余任务。图4A 显示了到达运动过程中的位置曲线。 无论是使用 LQR 还是博弈论控制器,到达任务均以较小的跟踪误差完成。图4B C 显示,通过不同的控制努力实现了到达:博弈论控制器相比 LQR 所需的控 制努力相对较小。这是因为在使用博弈论控制器时,机器人和人类都认为伙 伴对任务有所贡献,因此知道可以降低自身的努力程度。相比之下,使用 LQR 时,人类和机器人仅最小化各自的代价函数,而不考虑伙伴的行为,因 此可能会付出过大的努力。

总之,这些仿真表明,在考虑双方交互过程中动力学特性的情况下,博 弈论控制器提供了稳定性和最优性。

在结论章中,我们提出了一个用于康复机器人交互控制的一致框架。其核心思 想是通过设计各自的代价函数来规定康复机器人及其人类用户的控制行为。 利用该框架,可以分析、实现并测试不同类型的交互策略。具体而言,教育 型交互控制在共享受训者任务设定的同时,通过最小化引导努力,仅提供完 成到达任务所需的最低辅助;而竞争型交互控制则适用于具有足够良好控制 能力的受训者,由于两个智能体存在冲突目标,可借此挑战受训者,使其保 持训练参与度。一项针对中风幸存者的初步实验结果表明,该控制方法能够 实现平滑交互,不会干扰运动,也不会限制试次间变异性,而这可能对学习 过程具有重要意义。

此外,最近的研究揭示了当两个同伴在协作完成物理任务时,通过物理 接触发生的感觉运动交换[28,29],依赖于在交互过程中自动获取的同伴控制模 型。这种触觉通信对协同表现和学习的优势促使我们开发了一种博弈论版本 的交互框架,使机器人能够根据受训者的表现在线调整引导控制策略并做出 适当响应。该算法的一个关键部分是识别人类用户的控制,这是充分考虑其 行为所必需的。仿真结果表明,这种基于博弈论的机器人控制即使在受训者 出现灾难性动作的情况下也能提供稳定性,同时具备良好的响应性和对同伴 控制动学的行为适应能力。

尽管这些结果对成功的物理交互具有重要意义,并有望改善康复效果, 但该框架目前仅针对笛卡尔空间中的点对点手臂运动训练进行了表述。通过 实验和逆向最优控制提取不同的代价函数,可将该框架扩展到对应不同任务 的曲线几何情形。[19]此外,应将交互控制框架进一步扩展到其他任务,特别 是连续性任务,例如跟踪,因为最优控制本身与这类任务具有内在兼容性。 [17]。

需要说明的是,尽管我们使用最优控制来开发这一运动辅助框架,但我 们的目的并非使康复机器人或其人类用户的运动达到最优。事实上,对于神 经康复而言,这种最优性并不一定是可取的,而且目前尚不清楚受训者的运 动应追求何种最优性。相反,最优控制和微分博弈论被用来实现安全、平滑、 反应迅速且可适应的交互,并作为实施不同交互行为(如教育或竞争)的工 具。所提出的框架还可用于分析治疗师是否根据特定个体的受损感觉运动系 统调整其控制,以及触觉通信的哪些方面有利于身体神经康复。

【电能质量扰动】基于ML和DWT的电能质量扰动分类方法研究(Matlab实现)内容概要:本文研究了一种基于机器学习(ML)和离散小波变换(DWT)的电能质量扰动分类方法,并提供了Matlab实现方案。首先利用DWT对电能质量信号进行多尺度分解,提取信号的时频域特征,有效捕捉电压暂降、暂升、中断、谐波、闪变等常见扰动的关键信息;随后结合机器学习分类器(如SVM、BP神经网络等)对提取的特征进行训练与分类,实现对不同类型扰动的自动识别与准确区分。该方法充分发挥DWT在信号去噪与特征提取方面的优势,结合ML强大的模式识别能力,提升了分类精度与鲁棒性,具有较强的实用价值。; 适合人群:电气工程、自动化、电力系统及其自动化等相关专业的研究生、科研人员及从事电能质量监测与分析的工程技术人员;具备一定的信号处理基础和Matlab编程能力者更佳。; 使用场景及目标:①应用于智能电网中的电能质量在线监测系统,实现扰动类型的自动识别;②作为高校或科研机构在信号处理、模式识别、电力系统分析等课程的教学案例或科研实验平台;③目标是提高电能质量扰动分类的准确性与效率,为后续的电能治理与设备保护提供决策依据。; 阅读建议:建议读者结合Matlab代码深入理解DWT的实现过程与特征提取步骤,重点关注小波基选择、分解层数设定及特征向量构造对分类性能的影响,并尝试对比不同机器学习模型的分类效果,以全面掌握该方法的核心技术要点。
<think>嗯,用户现在想找关于康复机器人控制系统在MATLAB中的实现资料,包括教程、示例和代码。我需要先理清楚他们的具体需求。康复机器人通常涉及运动控制、力反馈、人机交互这些方面,所以控制系统可能包括运动学、动力学仿真、轨迹规划,还有可能的自适应控制或阻抗控制算法。 首先,我应该回顾之前提供的引用内容。引用[1]提到了MATLAB机器人控制系统的仿真模型,涵盖了运动学、动力学、轨迹规划和避障算法,并且有一个两连杆机械臂的示例代码。这可能是一个起点,用户可以参考这个结构来构建康复机器人的模型。引用[2]讨论了PID步态控制,虽然针对四足机器人,但PID控制康复机器人的关节控制中也很常见。引用[3]则分层说明了控制系统的结构,这对设计康复机器人控制层次有帮助。 接下来,用户可能需要具体的实现步骤。比如,如何建立运动学模型,康复机器人可能使用外骨骼结构,需要正逆运动学计算。动力学部分要考虑人体与机器人交互力,可能需要牛顿-欧拉方程或拉格朗日方法。轨迹规划方面,可能需要平滑的运动轨迹,比如多项式插值或最小加加速度轨迹,确保患者的安全和舒适。 然后,控制算法部分,除了基本的PID,可能还需要阻抗控制自适应控制来处理人机交互中的不确定性。引用[3]提到的中层控制涉及轨迹跟踪和力控制,这里可以结合。此外,安全机制和人机接口也是康复机器人的重点,比如实时监测患者的力反馈,调整运动参数。 示例代码部分,用户可能需要一个简化的模型来开始。比如,基于引用[1]的两连杆机械臂,可以扩展到外骨骼结构,加入力传感器模型和阻抗控制算法。MATLAB的Simulink和Simscape Multibody可以用于多体动力学仿真,而Robotics System Toolbox则提供运动学和动力学的函数支持。 用户可能遇到的困难包括如何整合各个模块,如何处理实时交互数据,以及如何验证控制算法的有效性。这时候,分步实现和模块化设计就很重要,比如先完成运动学仿真,再逐步添加动力学和控制系统。 另外,用户可能需要参考资料或教程。MATLAB官方文档中的Robotics and Autonomous Systems部分可能有相关案例,同时,学术论文或开源项目中的康复机器人控制案例也能提供思路。引用中提到的仿真流程和代码结构可以作为指导,帮助用户组织自己的项目。 最后,确保回答结构清晰,分步骤说明实现方法,并提供示例代码框架,这样用户可以根据需要调整和扩展。同时,生成的相关问题要针对康复机器人的特殊性,比如安全机制、人机交互算法等,帮助用户深入探索。</think>### 康复机器人控制系统MATLAB实现方法 #### 一、实现框架设计 康复机器人控制系统通常需要整合**运动学建模、力交互控制、轨迹规划和安全机制**。基于引用[3]的分层控制结构,建议采用以下MATLAB实现框架: 1. **底层控制**:关节位置/力矩PID控制(参考引用[2]的PID实现) 2. **中层控制**:自适应阻抗控制算法(处理人机交互力) 3. **高层控制**:基于患者生物信号的轨迹生成 #### 二、核心模块实现 ##### 1. 运动学建模(以3自由度上肢外骨骼为例) ```matlab % DH参数表建立 L(1) = Link('d',0,'a',0.3,'alpha',0); L(2) = Link('d',0,'a',0.25,'alpha',0); L(3) = Link('d',0,'a',0.2,'alpha',0); exoskeleton = SerialLink(L,'name','Arm'); % 正运动学验证 q = [pi/6, -pi/4, pi/3]; T = exoskeleton.fkine(q); disp(T); ``` ##### 2. 阻抗控制实现 $$ M\ddot{x} + B\dot{x} + K(x - x_d) = F_{ext} $$ 其中$M,B,K$为惯性/阻尼/刚度矩阵,$F_{ext}$为交互力[^3] ```matlab function tau = impedance_control(q, dq, F_ext) J = exoskeleton.jacob0(q); % 雅可比矩阵 M = exoskeleton.inertia(q); % 质量矩阵 x = exoskeleton.fkine(q); % 末端位置 xd = reference_traj(t); % 期望轨迹 % 阻抗方程计算 F_desired = K*(xd - x) + B*(dxd - dq) + F_ext; tau = J' \ (M*F_desired); % 转换为关节力矩 end ``` ##### 3. 安全监控模块 ```matlab function safe_check(F_sensor) F_threshold = 50; % 最大允许交互力(N) if any(abs(F_sensor) > F_threshold) trigger_emergency_stop(); log_error('Force overload detected'); % 记录安全事件 end end ``` #### 三、完整仿真流程 1. 建立Simulink模型架构(参考引用[2]的框架): ``` [轨迹生成] → [阻抗控制器] → [关节PID] → [机器人模型] → [力传感器反馈] ``` 2. 使用Simscape Multibody建立物理模型(引用[1]的动力学仿真方法) 3. 集成生物信号输入模块(EMG/EEG信号处理) #### 四、关键优化方向 1. **自适应阻抗参数调整**:根据肌电信号实时调节$K,B$矩阵 $$ K_t = K_0 + \alpha \cdot EMG_{envelope} $$ 2. **人机协同控制**:基于引用[3]的中层控制架构,添加预测控制层 3. **数字孪生验证**:通过引用[1]的仿真模型预验证控制策略 #### 五、示例代码获取 1. MATLAB官方案例库搜索:"Rehabilitation Robot Control Examples" 2. File Exchange资源: - "Upper Limb Exoskeleton Simulator"(包含动力学模型) - "Adaptive Impedance Control Package"(包含交互控制实现)
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值