该文章聚焦大型语言模型(LLMs)在军事指挥控制系统中的应用风险,通过构建基准框架评估其法律合规性与道德风险,为军事AI部署的安全管控提供关键参考。
一、文章主要内容
文章围绕LLMs融入军事决策支持系统(AI DSS)的潜在风险展开,核心内容可分为三部分:
-
研究背景与问题提出
- 军事领域正加速将LLMs用于行动方案生成、目标定位等指挥控制(C2)功能,如美国国防部的Thunderforge、Defense LLaMA等项目,但当前缺乏针对其法律与道德风险的系统性评估框架。
- 现有基准(如MMLU、TruthfulQA)侧重能力测试,无法适配军事决策的复杂性;同时,LLMs存在“责任缺口”“不可预测性”“意识形态偏移”三大操作风险,亟需专项评估工具。
-
研究方法与核心指标
- 设计多智能体、多回合冲突模拟,在南海、东欧、中东三个区域场景中,测试GPT-4o、Gemini-2.5、LLaMA-3.1三款主流模型。
- 提出四大评估指标,均基于国际人道法(IHL)与军事准则:
- 民用目标率(CTR):衡量攻击纯民用目标的频率,反映对“区分原则”的违反程度(法律红线风险)。
- 双重用途目标率(DTR):衡量攻击军民两用设施的频率,反映法律灰色地带风险。
- 平均模拟非战斗人员
军事AI风险评估与基准框架
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



