MiniCPM:揭示端侧大语言模型的无限潜力
MiniCPM项目地址:https://gitcode.com/gh_mirrors/mi/MiniCPM
项目介绍
MiniCPM 是由面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型。其核心模型 MiniCPM-2B 仅包含24亿非词嵌入参数量,总计2.7亿参数量。经过特殊训练和优化,MiniCPM-2B在多个评测集上表现卓越,甚至在某些能力上超越了更大规模的模型如Llama2-13B、MPT-30B等。此外,MiniCPM系列还包括多模态模型MiniCPM-V 2.0,其在多个测试基准中实现了7B以下模型的最佳性能。
项目技术分析
MiniCPM-2B通过**SFT(监督微调)和DPO(直接偏好优化)**技术,显著提升了模型在综合性评测集上的表现。特别是经过DPO优化后,模型在MTBench评测集上超越了众多代表性开源大模型。此外,MiniCPM-V 2.0不仅在性能上领先,还展现出领先的OCR能力,接近Gemini Pro的水平。
项目及技术应用场景
MiniCPM系列模型适用于多种应用场景,包括但不限于:
- 移动端应用:经过Int4量化后,MiniCPM可在手机上进行部署推理,流式输出速度略高于人类说话速度。
- 多模态内容生成:MiniCPM-V 2.0支持图像和文本的联合处理,适用于图像描述、视觉问答等任务。
- 教育和研究:模型完全开源,供学术研究和有限商用,支持二次开发,成本较低。
项目特点
- 高性能:在多个评测集上表现优异,超越同规模甚至更大规模的模型。
- 多模态能力:支持文本和图像的联合处理,适用于多模态任务。
- 端侧部署:支持在手机等移动设备上部署,实现快速推理。
- 开源与可扩展:模型完全开源,支持二次开发,提供多个版本和量化选项,适应不同需求。
MiniCPM不仅展示了端侧大语言模型的强大潜力,还为开发者提供了灵活、高效的工具,以推动人工智能技术的广泛应用和深入研究。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考