本文是LLM系列文章,针对《Learning to Generate Explainable Stock Predictions using
Self Reflective Large Language Models》的翻译。
摘要
对于传统的非生成深度学习模型来说,解释股票预测通常是一项困难的任务,因为解释仅限于可视化重要文本的注意力权重。如今,大型语言模型(LLM)为这个问题提供了一种解决方案,因为它们具有为决策过程生成人类可读解释的已知能力。然而,股票预测的任务对LLM来说仍然具有挑战性,因为它需要能够权衡混乱的社会文本对股价的不同影响。随着解释部分的引入,这个问题变得越来越困难,这需要LLM口头解释为什么某些因素比其他因素更重要。另一方面,为了为这样的任务微调LLM,需要对训练集中的每个股票运动进行专家注释的解释样本,这是昂贵的,而且难以扩展。
为了解决这些问题,我们提出了我们的总结-解释-预测(SEP)框架,该框架利用了言语自我反思代理和近端策略优化(PPO),使LLM能够自学如何以完全自主的方式生成可解释的股票预测。反思代理通过自我推理过程学习如何解释过去的股票走势,而PPO训练师则训练模型在测试时根据输入文本生成最有可能的解释。PPO训练器的训练样本也是在反思过程中生成的响应,这消除了对人工注释器的需求。使用我们的SEP框架,我们微调了一种专门的LLM,该LLM在预测精度和Matthews相关系数方面都优于传统的深度学习和LLM方法,用于股票分类任务。为了证明我们的框架的泛化能力,我们在投资组合构建任务中进一步测试了它,并通过各种投资组合指标证明了它的有效性。我们的代码可以通过访问https://github.com/koa-fin/sep。
使用自我反思的大型语言模型生成可解释的股票预测

本文提出了一种名为SEP的框架,利用自我反思代理和PPO,使大型语言模型(LLM)能自主生成可解释的股票预测。传统LLM在解释股票预测时面临挑战,但SEP解决了这一问题,无需人工注释的训练样本。实验证明,SEP框架在预测精度和解释质量上优于传统方法,并在投资组合构建任务中表现有效。未来工作将探讨如何提高生成响应的稳健性并利用多模态数据源增强预测能力。
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



