45、大语言模型能否助力危害分析?

大语言模型能否助力危害分析?

在当今科技飞速发展的时代,大语言模型(LLM)的应用领域不断拓展。其中,探讨LLM能否在危害分析(HA)中发挥作用是一个极具价值的研究方向。本文将围绕使用ChatGPT进行协同危害分析(CoHA)的实验展开,为大家深入剖析LLM在危害分析中的表现和潜力。

实验背景与研究问题

LLM在危害分析中的角色并非是取代人类分析师,即使其给出的答案起初看似“错误”,也可能有助于揭示系统描述中的问题,如隐含假设和模糊性。本次实验聚焦于简单热水器系统的系统理论过程分析(STPA),旨在回答以下三个研究问题:
1. 可行性(RQ1) :LLM用于CoHA时,能否为人类分析师识别STPA中的不安全控制行动(UCAs)和因果场景提供有用结果?
2. 实用性(RQ2) :LLM的响应中,对UCA和因果场景识别有用且正确、正确但无用、错误的比例分别是多少?
3. 可扩展性(RQ3) :随着分析系统复杂度的增加,LLM的响应质量是否会下降?

实验方法

为了回答上述研究问题,实验采用了四阶段的实验方案:
1. 系统选择 :选择的系统需满足三个标准。一是能用STPA的建模方法STAMP控制结构表示;二是能用简单术语描述,避免因专业术语影响LLM性能;三是复杂度可扩展,以便评估其在不同复杂度系统上的性能。基于这些标准,实验选用了一个带有简单反馈控制器的热水器系统,通过添加阀门和二次反馈回路来增加系统复杂度。
2. 系统编码

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值