Role-Conditioned Refusals: Evaluating Access Control Reasoning in Large Language Models

在这里插入图片描述
这篇文章聚焦大语言模型(LLMs)在访问控制推理中的角色条件拒绝能力,通过构建新数据集和对比三种方法,为LLMs在企业敏感环境中的安全部署提供了关键参考。

一、文章主要内容总结

1. 研究背景与问题

传统计算中,基于角色的访问控制(RBAC)是安全基石,但LLMs生成式特性会模糊角色边界,可能导致未授权用户获取敏感数据(如医疗、财务信息)。现有研究多依赖合成场景,缺乏对真实可执行访问规则的支持,无法有效评估LLMs在实际访问控制中的可靠性。

2. 核心研究设计
  • 数据集构建:扩展Spider和BIRD两个文本到SQL数据集,添加PostgreSQL表级和列级RBAC策略,每个数据库定义4个层级角色(从无限制访问到最小可见性),形成Spider-ACL(153个数据库、612个角色、1.96万查询)和BIRD-ACL(80个数据库、320个角色、3.58万查询)。
  • 三种评估方法
    1. 零样本/少样本提示(Setting 1):模型直接结合用户角色、数据库 schema 和问题,一步决策是否允许访问并生成SQL(若允许)。
    2. 两步生成-验证流水线(Setting 2):生成
复现论文 “Efficient Alignment of Unconditioned Action Prior for Language - conditioned Pick and Place in Clutter” 可从以下方面着手: ### 环境搭建 依据论文要求,安装合适的深度学习框架(如 TensorFlow、PyTorch 等)、机器人仿真环境(像 Gazebo、MuJoCo),以及其他必要的库和依赖项。确保硬件资源(如 GPU)满足实验需求。 ### 数据准备 按照论文描述,收集或生成用于语言条件下杂乱场景中抓取和放置任务的数据。数据应包含物体的图像、位置信息以及对应的语言指令。对数据进行预处理,如归一化、划分训练集和测试集等。 ### 模型实现 根据论文中的架构,使用所选的深度学习框架实现无约束动作先验的高效对齐模型。精确复现模型的各个组件,包括卷积神经网络(CNN)、循环神经网络(RNN)或变换器(Transformer)等,确保参数设置和网络结构与论文一致。 ### 训练过程 依照论文的训练策略进行模型训练。设置合适的损失函数、优化器和学习率调度器。监控训练过程中的指标,如准确率、损失值等,确保模型收敛。 ### 实验验证 在测试集上运行训练好的模型,评估其在语言条件下杂乱场景中抓取和放置任务的性能。对比论文中的实验结果,检查复现的实验指标是否相近。 以下是一个简单的 PyTorch 模型示例,用于说明如何搭建一个基本的深度学习模型: ```python import torch import torch.nn as nn class SimpleModel(nn.Module): def __init__(self): super(SimpleModel, self).__init__() self.fc1 = nn.Linear(10, 20) self.relu = nn.ReLU() self.fc2 = nn.Linear(20, 1) def forward(self, x): x = self.fc1(x) x = self.relu(x) x = self.fc2(x) return x model = SimpleModel() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值