超小语言模型MiniMind

"大道至简"

https://github.com/jingyaogong/minimind

中文 | English

  • 此开源项目旨在完全从0开始,仅用3块钱成本 + 2小时!即可训练出仅为25.8M的超小语言模型MiniMind
  • MiniMind系列极其轻量,最小版本体积是 GPT-3 的 17000,力求做到最普通的个人GPU也可快速训练。
  • 项目同时开源了大模型的极简结构-包含拓展共享混合专家(MoE)、数据集清洗、预训练(Pretrain)、监督微调(SFT)、LoRA微调, 直接偏好强化学习(DPO)算法、模型蒸馏算法等全过程代码。
  • MiniMind同时拓展了视觉多模态的VLM: MiniMind-V
  • 项目所有核心算法代码均从0使用PyTorch原生重构!不依赖第三方库提供的抽象接口。
  • 这不仅是大语言模型的全阶段开源复现,也是一个入门LLM的教程。
  • 希望此项目能为所有人提供一个抛砖引玉的示例,一起感受创造的乐趣!推动更广泛AI社区的进步!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值