自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 小小COLAB 搞定llm的pretrain, sft, rl全栈技术

TinyLlama 是一个开源的 LLaMA 重现项目,目标在 ~90 天内用 3 万亿 tokens 预训练一个 1.1B 参数的 LLaMA 模型。该项目采用了与 LLaMA-2 相同的架构和分词器,训练后可插拔至 LLaMA 生态。作者进一步对该模型进行了对话式微调:先在合成对话数据(UltraChat)上进行监督微调,再用 TRL 库的DPOTrainer在 GPT-4 排序的 UltraFeedback 偏好数据集上优化模型。

2025-06-08 23:59:55 692

原创 大模型LLM Post training: 30天从入门到神经

ChatGPT全球最大开源平替 OpenAssistant – 优快云博客(OpenAssistant 项目介绍)【74】databricks-dolly-15k – 15k条高质量指令/响应数据集(Hugging Face 数据集)【80】Alpaca:一个强大的、可复现的指令遵循模型 – 知乎专栏(斯坦福 Alpaca 模型原理与数据生成介绍)【84】中文大模型数据集汇总 – 优快云博客(列举BELLE、COIG、Firefly、MOSS等开源指令数据)【78】想训练ChatGPT?

2025-05-12 23:38:01 987

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除