本文是LLM系列文章,针对《Towards Better Multi-task Learning: A Framework for Optimizing Dataset Combinations in Large Language Models》的翻译。
摘要
为了有效地选择最佳的数据集组合来提高大型语言模型中的多任务学习(MTL)性能,我们提出了一种利用神经网络预测最佳数据集组合的新框架。该框架迭代地优化选择,大大提高了效率,同时与模型、数据集和领域无关。通过在四个任务(命名实体识别、关系提取、事件提取和文本分类)的12个生物医学数据集上的实验,我们证明了我们的方法有效地识别了更好的组合,即使是从人类的角度来看似乎没有希望的任务。这验证了我们的框架为最大化MTL潜力提供了一个有前景的解决方案。
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



