本文是LLM系列文章,针对《FinGPT: Instruction Tuning Benchmark for Open-Source Large Language Models in Financial Datasets》的翻译。
摘要
在自然语言处理(NLP)迅速扩展的领域中,基于GPT的模型在金融部门的潜力越来越明显。然而,这些模型与金融数据集的集成带来了挑战,尤其是在确定其熟练程度和相关性方面。本文介绍了一种独特的方法,该方法基于开源大型语言模型的指令调整范式,专门适用于金融环境。通过这种方法,我们利用了开源模型的互操作性,确保了无缝透明的集成。我们首先解释“指令调优”范式,强调其对即时集成的有效性。本文提出了一种针对端到端训练和测试的基准测试方案,采用了一种具有成本效益的渐进式。首先,我们评估基本能力和基本任务,如命名实体识别(NER)和情感分析,以增强专业化。接下来,我们深入研究一个综合模型,通过合并所有指令调整来执行多任务操作,以检查多功能性。最后,我们通过指定看不见的任务和结合新的数据集来探索零样本功能,以了解未知地形中的适应性。这样的范式强化了开放性和可复制性的原则,为未来开源金融大型语言模型(FinLLM)的研究奠定了坚实的基础。我们的代码可在线访问