关于大模型的一些YY和记录

本文概述了OpenAI的GPT系列从GPT-1到GPT-4的发展历程,强调了参数数量和计算资源的增长。同时提及Google的GEMINI系列,包括不同版本以及在业务中的应用。其他公司如百川和腾讯也发布了自家的大模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

OPENAI - GPT

  • 2018年 GPT1 117M参数 12层
  • 2019年 GPT2 1.5B参数 48层
  • 2020年 GPT3 1750亿参数(175B) 96层-2Ktoken
  • 2022年 GPT3.5
  • 2023年 GPT4 8个220B的多模态 训练量13万亿token,耗费了2.15e25的FLOPS,同等2.5万张A100训练3个月,同等1万张H100训练2个月,推理只需要128个A100

GOOGLE - GEMINI

  • 2023-12-06发布 支持多模态
  • GEMINI3个版本,UTRAL对标GPT4,PRO对标GPT3,NANO提供到移动终端
  • GOOGLE的业务上有Bard对话服务、ALphaCode编码服务等,底层可以用GEMINI

other

  • 2023.8 百川 发布Baichuan 53B
  • 2023.9 腾讯 发布混元大模型
  • 2023.9 作业帮 银河大模型

根据新闻逐渐增加,很多信息待补充,作为记录和回忆

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值