大语言模型能否助力危害分析?
在当今科技飞速发展的时代,大语言模型(LLM)的应用领域不断拓展。其中,探讨LLM能否在危害分析(HA)中发挥作用是一个极具价值的研究方向。本文将围绕使用ChatGPT进行协同危害分析(CoHA)的实验展开,为大家深入剖析LLM在危害分析中的表现和潜力。
实验背景与研究问题
LLM在危害分析中的角色并非是取代人类分析师,即使其给出的答案起初看似“错误”,也可能有助于揭示系统描述中的问题,如隐含假设和模糊性。本次实验聚焦于简单热水器系统的系统理论过程分析(STPA),旨在回答以下三个研究问题:
1. 可行性(RQ1) :LLM用于CoHA时,能否为人类分析师识别STPA中的不安全控制行动(UCAs)和因果场景提供有用结果?
2. 实用性(RQ2) :LLM的响应中,对UCA和因果场景识别有用且正确、正确但无用、错误的比例分别是多少?
3. 可扩展性(RQ3) :随着分析系统复杂度的增加,LLM的响应质量是否会下降?
实验方法
为了回答上述研究问题,实验采用了四阶段的实验方案:
1. 系统选择 :选择的系统需满足三个标准。一是能用STPA的建模方法STAMP控制结构表示;二是能用简单术语描述,避免因专业术语影响LLM性能;三是复杂度可扩展,以便评估其在不同复杂度系统上的性能。基于这些标准,实验选用了一个带有简单反馈控制器的热水器系统,通过添加阀门和二次反馈回路来增加系统复杂度。
2. 系统编码
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



