截止目前 2024 年 11 月,都有哪些比较好的开源大模型?
作者:开源呼叫中心系统 FreeIPCC,Github地址:https://github.com/lihaiya/freeipcc
截至2024年11月,已经有多个优秀的开源大模型面世,这些模型在各自领域展现了出色的性能和广泛的应用潜力。以下列举五个备受关注的开源大模型:
-
Llama 2系列:
- 简介:Llama 2是一系列预训练和微调的大型语言模型,参数规模从70亿到700亿不等。这些模型在测试的大多数基准测试中均表现出色,特别是在对话场景中,Llama 2-Chat模型更是获得了用户的高度评价。
- 开源地址:GitHub - meta-llama/llama
-
OPT(Open Pre-trained Transformer Language Models):
- 简介:OPT是一系列仅包含解码器的预训练transformers模型,参数范围广泛,从125M到175B不等。这些模型在零样本学习和少样本学习方面展现出卓越的能力,且训练成本相对较低。
- 开源地址:GitHub - facebookresearch/metaseq
-
CPM(Chinese Pre-trained Language Model):
- 简介:CPM是专注于中文的预训练语言模型,由26亿参数和100GB中文训练数据组成。它采用了大规模中文训练数据进行生成式预训练,为多项下游中文自然语言处理任务提供了有力支持。
- 开源地址:GitHub - TsinghuaAI/CPM-1-Generate
-
BLOOM:
- 简介:BLOOM是一个拥有1760亿参数的开放获取语言模型,由数百名研究人员合作设计和构建。它在ROOTS语料库上进行训练,包含了46种自然语言和13种编程语言的数百个来源。BLOOM在各种基准测试中表现出色,且经过多任务提示微调后的结果更加强大。
- 开源地址:Hugging Face - bigscience/bloom
-
GLM-130B(Generative Large Model-130B):
- 简介:GLM-130B是一个拥有1300亿参数的双语(英文和中文)预训练语言模型。该模型旨在开源一个至少与GPT-3一样出色的1000亿规模模型,并揭示了这种规模的模型如何成功地进行预训练。GLM-130B在双语处理方面展现出了卓越的能力。
- 开源地址:GitHub - THUDM/GLM-130B
这些开源大模型不仅在性能上取得了显著突破,还通过开源的方式促进了技术的普及与应用,为全球范围内的科研、产业及社会发展带来了积极影响。