2025年春节,DeepSeek的大火,将企业推到了十字路口。
过去,私有化部署大模型的成本令人望而却步:
训练和运行像ChatGPT这样的大模型需要海量算力,GPT-3单次训练需要消耗相当于3000辆特斯拉同时开跑、每辆车跑20万英里的电量;GPT-4单次消耗的电能转化为热能,则可以将约1000个奥运会标准游泳池的水量加热到沸腾。而且企业在后续的 GPU 集群运维、数据团队开支和模型迭代成本,更像一个永远填不满的烧钱黑洞。
但是随着DeepSeek R1等开源模型的出现,低成本私有化部署大模型成为可能,企业基于现成的框架微调模型,可以避免从零构建的巨额投入。
然而在大模型落地企业应用过程中,完成部署并不意味着开发工作到达了“终点”。企业数据爆炸式地增长和持续迭代,要求AI必须具备“终身学习”的能力。
一旦丧失这种能力,大模型会很快表现出能力的“天花板”,包括产生幻觉、缺乏对生成文本的可解释性、专业领域知识理解差,以及对最新知识的了解有限等等,无法真正地为企业解决问题。
而RAG(Retrieval-augmented Generation,检索增强生成)可以让大模型利用外部的知识库来增强生成能力,提高内容生成质量和可靠性,让企业内部积累的大量数据得到有效利用,唤醒企业沉睡的知识。
RAG:给大模型装上“外挂知识“
RAG的核心思想是通过外挂知识库的方式,给大模型提供更可靠的知识来抑制模型产生幻觉,通过定期迭代知识库,解决大模型知识更新慢和训练成本高的问题。
如果说传统大模型像闭卷考试的学生,回答问题时只能靠考前