
LLMs
文章平均质量分 95
IT斜杆青年
想卷卷不动,想躺躺不平!
展开
-
从零实现Llama3中文版
从零实现Llama3中文版,该项目能在一台 16G RAM 的笔记本电脑上运行。原创 2024-05-26 22:00:18 · 1796 阅读 · 0 评论 -
Sora技术原理解析
Sora是一个基于大规模训练的文本控制视频生成扩散模型。Sora能够生成高达1分钟的高清视频,涵盖广泛的视觉数据类型和分辨率。Sora使用简单的文本描述,使得视频创作变得前所未有的简单和高效。原创 2024-02-29 23:05:18 · 1574 阅读 · 0 评论 -
LLMs推理框架总结
LLMs(大模型)推理框架总结原创 2023-12-19 22:42:40 · 2594 阅读 · 0 评论 -
RAG(检索增强生成)技术
检索增强 LLM ( Retrieval Augmented LLM ),给 LLM 提供外部数据库,对于用户问题 ( Query ),通过一些信息检索 ( Information Retrieval, IR ) 的技术,先从外部数据库中检索出和用户问题相关的信息,然后让 LLM 结合这些相关信息来生成结果原创 2023-12-19 09:55:37 · 2549 阅读 · 0 评论 -
LLaMA系列模型
2023年2月,Meta(原Facebook)推出了LLaMA大模型,在相关评测任务上的效果可以媲美甚至超过千亿级大模型,被认为是近期开源大模型百花⻬放的开端之一,“羊驼”系列模型及其生态快速发展。原创 2023-12-18 22:55:43 · 3555 阅读 · 0 评论 -
掌握大型语言模型(LLM)技术:推理优化
大模型(LLM)推理优化技术整理。原创 2023-12-03 16:26:43 · 4806 阅读 · 0 评论 -
ChatGPT相关核心算法
ChatGPT 的卓越表现得益于其背后多项核心算法的支持和配合。本文将分别介绍作为其实现基础的 Transformer 模型、激发出其所蕴含知识的Prompt/Instruction Tuning 算法、其涌现出的思维链能力、以及确保其与人类意图对齐的基于人类反馈的强化学习算法。原创 2023-03-26 20:59:17 · 12642 阅读 · 1 评论 -
The Annotated Transformer 最新翻译
The Annotated Transformer 最新翻译。Transformer 是第一个完全依赖自注意力来计算其输入和输出表示,而不是使用序列对齐 RNN 或卷积的模型。翻译 2023-05-21 19:43:38 · 389 阅读 · 0 评论 -
Transformer架构解析
Transformer 是第一个完全依赖自注意力来计算其输入和输出表示,而不是使用序列对齐 RNN 或卷积的模型。原创 2023-05-21 19:31:46 · 7033 阅读 · 2 评论