本文是LLM系列文章,针对《Purifying Large Language Models by Ensembling a Small Language Model》的翻译。
摘要
大型语言模型(LLM)的新兴成功在很大程度上依赖于从外部(不可信)来源收集丰富的训练数据。尽管在数据清理和管理方面做出了大量努力,但据报道,构建良好的LLM存在版权侵权、数据中毒和/或隐私侵犯的问题,这将阻碍LLM的实际部署。在这项研究中,我们提出了一种简单且易于实施的方法来从未评级数据引起的负面影响中净化LLM,即通过将LLM与良性和小型语言模型(SLM)集成。除了理论保证之外,我们还进行了全面的实验,以实证验证将LLM与SLM集成的有效性,这可以有效地保持LLM的性能,同时缓解版权侵权、数据中毒和隐私侵犯等问题。
1 引言
2 集成算法
3 评估
4 进一步讨论
5 相关工作
6 结论
本文旨在减轻大型语言模型(LLM)中未经评级的数据所带来的负面影响,包括版权侵权、数据中毒和隐私泄露