基于机器学习的急性炎症反应最优治疗决策支持系统
1. 引言
炎症是许多疾病的病理原因,如COVID - 19、自身免疫性疾病等。免疫系统对病原体感染的反应表现为炎症,炎症控制至关重要,尤其是在危急疾病中,因为炎症会损害感染组织。延迟治疗可能降低患者的生存机会,因此需要优化关键病症的治疗。基于药物输注的抗炎控制对于提供成本更低、效果更好的药物治疗具有重要意义。
近年来,针对具有非线性时变动力学和多平衡点的许多疾病开展了数学建模研究,这些疾病模型可用于预测疾病的未来动态以及设计基于模型的控制器。控制理论方法也被应用于严重疾病的药物剂量调节。
在炎症控制问题的研究中,已有不少成果。例如,Day等人设计了非线性模型预测控制器,Bara等人提出了抗炎治疗的最优控制器,Rigatos等人利用粒子滤波器对非线性急性炎症模型进行状态估计,Hogg等人提出了描述对细菌感染反应的急性炎症非线性控制器。
强化学习(RL)是一种机器学习方法,无需系统信息即可构建类似人类的决策者,通过行动、奖励和状态构建强化智能体。它以不同的学习机制解决动态规划问题,根据环境反馈设计行动,基于与环境的交互获得奖励值进行学习,找到最大化奖励的最佳行为。基于强化学习的策略已用于疾病的精确治疗,还可根据不同目标规划治疗过程。
本文的主要目标是通过实验设计和特定奖励函数,提高强化智能体在脓毒症和无菌症情况下稳定急性炎症反应(AIR)的学习能力。设计动态Q学习和基于径向基函数的值近似智能体,使其学习并应对重要的患者特定情况。提出了新颖的奖励值函数,以在未知干扰和无效治疗期间实现最优治疗。
2. 急性炎症反应的数学建模
急性炎症反应(AIR)的数学模
超级会员免费看
订阅专栏 解锁全文
1042

被折叠的 条评论
为什么被折叠?



