- 博客(2)
- 收藏
- 关注
原创 小小COLAB 搞定llm的pretrain, sft, rl全栈技术
TinyLlama 是一个开源的 LLaMA 重现项目,目标在 ~90 天内用 3 万亿 tokens 预训练一个 1.1B 参数的 LLaMA 模型。该项目采用了与 LLaMA-2 相同的架构和分词器,训练后可插拔至 LLaMA 生态。作者进一步对该模型进行了对话式微调:先在合成对话数据(UltraChat)上进行监督微调,再用 TRL 库的DPOTrainer在 GPT-4 排序的 UltraFeedback 偏好数据集上优化模型。
2025-06-08 23:59:55
692
原创 大模型LLM Post training: 30天从入门到神经
ChatGPT全球最大开源平替 OpenAssistant – 优快云博客(OpenAssistant 项目介绍)【74】databricks-dolly-15k – 15k条高质量指令/响应数据集(Hugging Face 数据集)【80】Alpaca:一个强大的、可复现的指令遵循模型 – 知乎专栏(斯坦福 Alpaca 模型原理与数据生成介绍)【84】中文大模型数据集汇总 – 优快云博客(列举BELLE、COIG、Firefly、MOSS等开源指令数据)【78】想训练ChatGPT?
2025-05-12 23:38:01
987
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅