Large Language Models (LLMs) as Agents for Augmented Democracy

本文是LLM系列文章,针对《Large Language Models (LLMs) as Agents for Augmented Democracy》的翻译。
@[TOC](大型语言模型 (LLM) 作为增强民主的推动者)

摘要

我们探索了一个建立在现成的LLM基础上的增强民主系统,该系统经过微调,可以增强从巴西 2022 年总统选举两位主要候选人的政府计划中提取的公民偏好数据。我们使用训练测试交叉验证设置来估计LLM预测的准确性:受试者的个人政治选择和完整参与者样本的总体偏好。在个人层面上,我们发现LLM比“捆绑规则”更准确地预测样本偏好,“捆绑规则”假设公民总是投票支持符合他们自我报告的政治倾向的候选人的提案。在总体水平上,我们表明,与单独的非增强概率样本相比,LLM增强的概率样本可以更准确地估计总体偏好。总之,这些结果表明,使用LLM增强的政策偏好数据可以捕捉超越政党界限的细微差别,并代表了数据增强研究的一个有前途的途径。

引言

结果和方法

讨论

### 大型语言模型在大规模任务规划中的应用 大型语言模型LLMs)能够处理复杂的自然语言输入并生成连贯的响应,这使得其成为执行基于常识的任务规划的理想工具[^3]。通过利用这些模型所具备的知识库以及推理能力,可以实现更高效的大规模任务规划。 #### 基于常识知识的任务规划 为了使机器理解人类意图并有效地完成指定目标,在设计自动化系统时引入了常识概念。LLM 可以被用来解析描述日常活动或复杂操作场景的文字材料,并从中提取有用的信息来指导决策过程。例如: - **环境感知**:识别环境中存在的物体及其属性; - **动作序列推断**:根据给定的目标状态推测出一系列必要的行动步骤; ```python def infer_action_sequence(goal_state, current_environment): """ 使用 LLM 推理从当前环境到目标状态所需的动作序列 参数: goal_state (str): 描述期望达到的状态字符串 current_environment (dict): 表示现有条件的数据结构 返回: list[str]: 动作指令列表 """ prompt = f"In order to achieve {goal_state}, what actions should be taken starting with this environment:\n{current_environment}" response = llm_api(prompt) action_list = parse_response_into_actions(response) return action_list ``` #### 实际应用场景 当涉及到实际部署时,研究者们已经探索了一些潜在的应用领域,其中一些包括但不限于以下几个方面: - **智能家居控制**:通过语音命令让家庭设备协同工作以满足居住者的特定需求; - **物流配送优化**:安排最优路径和时间表以便货物及时送达客户手中; - **医疗保健辅助**:协助医生制定个性化治疗方案或者提醒患者按时服药等健康维护措施; 尽管取得了显著进展,但在解释性和可靠性方面的挑战仍然存在,这对于确保系统的安全性和有效性至关重要[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值