Large Language Models As Evolution Strategies

828 篇文章

已下架不支持订阅

本文研究大型语言模型(LLM)能否实现进化优化算法,提出EvoLLM,它在合成BBOB函数和神经进化任务上优于随机搜索和高斯爬山。通过微调,EvoLLM性能得到提升,但预训练和微调协议对其性能有影响。未来将探索LLM在优化领域的更多可能性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Large Language Models As Evolution Strategies》的翻译。

摘要

大型Transformer模型能够实现大量所谓的上下文学习算法。其中包括梯度下降、分类、序列完成、转换和改进。在这项工作中,我们研究了从未明确遇到黑箱优化任务的大型语言模型(LLM)原则上是否能够实现进化优化算法。虽然之前的工作只关注基于语言的任务规范,但我们继续关注LLM在black-box优化中的零样本应用。我们引入了一种新的提示策略,包括对离散群体成员进行最小到最大排序,并查询LLM,以提出对平均统计量的改进,即执行一种黑匣子重组操作。从经验上讲,我们发现我们的设置允许用户获得基于LLM的进化策略,我们称之为“EvoLLM”,该策略在合成BBOB函数和小型神经进化任务上稳健地优于随机搜索和高斯爬山等基线算法。因此,LLM可以充当“插入式”的上下文重组运算符。我们对LLM的模型规模、提示策略和上下文构建进行了几项比较研究。最后,我们证明了通过对先前收集的教师优化进行指令微调来提供教师算法信息,可以灵活地提高EvoLLM的性能轨迹。

1 引言

2 相关工作

3 背景

4 将LLMS转化为ES算法

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值