
大模型
文章平均质量分 93
大模型是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型在各种领域都有广泛的应用,包括自然语言处理、计算机视觉、语音识别和推荐系统等。
G皮T
计算机科学与技术本科,计算机技术硕士,现任职于某互联网公司,担任测试开发工程师。优快云云原生领域优质创作者、博客专家。书籍《大数据测试开发工程师的第一本书》正在积极撰写中,敬请期待。微信公众号:大数据与AI实验室。《Java 百“练”成钢》连载中,欢迎关注!
展开
-
【自然语言处理】ChatGPT 相关核心算法
ChatGPT 的卓越表现得益于其背后多项核心算法的支持和配合。本文将分别介绍作为其实现基础的 Transformer 模型、激发出其所蕴含知识的 Prompt / Instruction Tuning 算法、其涌现出的思维链能力、以及确保其与人类意图对齐的基于人类反馈的强化学习算法。原创 2023-03-14 12:41:16 · 2940 阅读 · 1 评论 -
【自然语言处理】图解 Transformer
在本篇博客中,我们将介绍一种新的模型 Transformer,一种使用注意力机制来提高模型训练速度的模型。Transformer 是在论文 Attention is All You Need 中首次提出的。Tensor2Tensor 包提供了其基于 TensorFlow 的实现版本。哈佛大学的 NLP 小组也创建了一个指南,使用 PyTorch 实现了对论文的注释。原创 2023-02-19 20:48:56 · 1182 阅读 · 0 评论 -
【自然语言处理】Transformer 模型:概述及分类(综述)
在过去的数年里,基于 Transformer 的相关模型层出不穷。本文将对当下最流行的 Transformer 模型做一个简单全面的介绍。原创 2023-02-20 19:38:41 · 8923 阅读 · 2 评论 -
【自然语言处理】BERT & GPT
近年来,随着大规模预训练语言模型的发展,自然语言处理领域发生了巨大变革。BERT 和 GPT 是其中最流行且最有影响力的两种模型。在本篇博客中,我们将讨论 BERT 和 GPT 之间的区别以及它们的演变过程。原创 2023-02-27 14:57:45 · 2380 阅读 · 2 评论 -
【自然语言处理】从词袋模型到Transformer家族的变迁之路
本文简要介绍了 BOW、TF-IDF、Word2Vec、Transformer、BERT、GPT、RoBERTa、 XLM、Reformer、ELECTRA、T5 等模型。原创 2023-03-07 22:14:32 · 1131 阅读 · 2 评论