本文是LLM系列文章,针对《Purifying Large Language Models by Ensembling a Small Language Model》的翻译。
摘要
大型语言模型(LLM)的新兴成功在很大程度上依赖于从外部(不可信)来源收集丰富的训练数据。尽管在数据清理和管理方面做出了大量努力,但据报道,构建良好的LLM存在版权侵权、数据中毒和/或隐私侵犯的问题,这将阻碍LLM的实际部署。在这项研究中,我们提出了一种简单且易于实施的方法来从未评级数据引起的负面影响中净化LLM,即通过将LLM与良性和小型语言模型(SLM)集成。除了理论保证之外,我们还进行了全面的实验,以实证验证将LLM与SLM集成的有效性,这可以有效地保持LLM的性能,同时缓解版权侵权、数据中毒和隐私侵犯等问题。
1 引言
2 集成算法
3 评估
4 进一步讨论
5 相关工作
6 结论
本文旨在减轻大型语言模型(LLM)中未经评级的数据所带来的负面影响,包括版权侵权、数据中毒和隐私泄露。为了缓解这些问题,我们研究了一种简单的集成策略,该策略将不可信的LLM与良性的小型语言模型(SLM)相结合。除了理论保证外,我们还在九个模型和十个基准上进行了广泛的实验,以验证集成策略的有效性。考虑到LLM的广泛使用以及与未评级数据相关的普遍问题,我们认为我们的方法有
本文探讨了如何通过集成小型语言模型来净化大型语言模型,以减轻版权侵权、数据中毒和隐私侵犯等问题,同时保持性能。实验验证了这种方法的有效性。
已下架不支持订阅
245

被折叠的 条评论
为什么被折叠?



