Can Large Language Models Understand Real-World Complex Instructions?

828 篇文章

已下架不支持订阅

本文介绍了一项关于大型语言模型(LLM)理解现实世界复杂指令的研究。尽管LLM展现出理解人类指令的能力,但在处理涉及多任务、长上下文和异构信息的复杂指令时仍有困难。为填补评估这一能力的基准空白,作者提出了CELLO基准,包括8个复杂指令特征和全面的评估数据集。此外,他们还建立了新的评估标准和指标,通过实验对比了不同LLM的表现。CELLO资源已开源。

本文是LLM系列文章,针对《Can Large Language Models Understand Real-World Complex Instructions?》的翻译。

大型语言模型能理解现实世界的复杂指令吗?

摘要

大型语言模型(llm)可以理解人类指令,显示出它们在传统NLP任务之外的实用应用潜力。然而,它们仍然在与复杂的指令作斗争,这些指令可能是需要多个任务和约束的复杂任务描述,也可能是包含长上下文、噪声、异构信息和多回合格式的复杂输入。由于这些特性,llm经常忽略任务描述中的语义约束,生成不正确的格式,违反长度或样本计数约束,并且不忠实于输入文本。现有的基准不足以评估LLM理解复杂指令的能力,因为它们是封闭和简单的。为了弥补这一差距,我们提出了CELLO,一个评估LLM系统地遵循复杂指令的能力的基准。我们为复杂的指令设计了8个特征,并从现实场景中构建了一个全面的评估数据集。我们还建立了四个标准,并制定了相应的度量标准,因为目前的标准是不充分的,有偏差的或过于严格和粗粒度的。我们通过大量的实验比较了具有代表性的汉语模型和英语模型在遵循复杂指令方面的表现。CELLO的资源可在https://github.com/Abbey4799/CELLO上公开获取。

引言

相关工作

CELLO基准

实验

结论

在这项工作中,我们系统地研究了LLM的复杂理解能力。我们建立了包含8个特征的复杂指令识别框架,并提出了两阶段的数据集构建框架,最终构建了中文复杂指令评价数据集。此外,我们设计了四个评估标准和相应的指标来评估LLM的复杂指令理解能力。此外,

已下架不支持订阅

### Chain-of-Thought Prompting Mechanism in Large Language Models In large language models, chain-of-thought prompting serves as a method to enhance reasoning capabilities by guiding the model through structured thought processes. This approach involves breaking down complex problems into simpler components and providing step-by-step guidance that mirrors human cognitive processing. The creation of these prompts typically includes selecting examples from training datasets where each example represents part of an overall problem-solving process[^2]. By decomposing tasks into multiple steps, this technique encourages deeper understanding and more accurate predictions compared to traditional methods. For instance, when faced with multi-hop question answering or logical deduction challenges, using such chains allows models not only to generate correct answers but also articulate intermediate thoughts leading up to those conclusions. Such transparency facilitates better interpretability while improving performance on various NLP benchmarks. ```python def create_chain_of_thought_prompt(task_description, examples): """ Creates a chain-of-thought prompt based on given task description and examples. Args: task_description (str): Description of the task at hand. examples (list): List containing tuples of input-output pairs used for demonstration purposes. Returns: str: Formatted string representing the final prompt including both instructions and sample cases. """ formatted_examples = "\n".join([f"Input: {ex[0]}, Output: {ex[1]}" for ex in examples]) return f""" Task: {task_description} Examples: {formatted_examples} Now try solving similar questions following above pattern. """ # Example usage examples = [ ("What color do you get mixing red and blue?", "Purple"), ("If it rains tomorrow, will we have our picnic?", "No") ] print(create_chain_of_thought_prompt("Solve logic puzzles", examples)) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值