
从零实现诗词GPT大模型
文章平均质量分 81
从浅入深逐步深入GPT原理,并动手实现一个可以创作诗词的GPT模型。
本专栏实现的模型,可以在kaggle上使用免费GPU训练,并可在普通计算机上进行推理。
优惠券已抵扣
余额抵扣
还需支付
¥9.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
Qibin01
人不会死在绝境,却往往栽在十字路口
展开
-
从零实现诗词GPT大模型:实现GPT模型
专栏规划:本文稍后更新~~原创 2024-09-08 00:05:39 · 189 阅读 · 0 评论 -
从零实现诗词GPT大模型:实现多头自注意力
本文重点介绍了多头自注意力机制以及代码实现,并且详细介绍了每一行代码的实现。原创 2024-09-08 00:01:29 · 1101 阅读 · 0 评论 -
从零实现诗词GPT大模型:了解自注意力机制
专栏规划:在上篇文章中我们介绍了Transformer架构模型,但是上篇文章我们着重讲解的FFN和的实现,有一个遗留的自注意力没有实现,在本文我们从浅入深介绍自注意力机制,下篇文章我们将代码实现自注意力机制,并且继承到上篇文章实现的中。原创 2024-04-22 09:01:36 · 340 阅读 · 0 评论 -
从零实现诗词GPT大模型:实现Transformer架构
专栏规划:首先说明一下,跟其他文章不太一样,在本篇文章中不会对Transformer架构中的自注意力机制进行讲解,而是后面单独1~2篇文章详细讲解自注意力机制,我认为由浅入深的先了解Transformer整体架构和其中比较简单的部分,后面再详细讲解自注意力更容易理解Transformer架构。Transformer架构是Google在2017的著名的论文中提出,Transformer的整体架构可以用以下这张著名的架构图来说明从架构图可以看出,Transformer由左右两部分组成,左边的叫。原创 2024-04-22 08:59:35 · 384 阅读 · 0 评论 -
从零实现诗词GPT大模型:GPT是怎么生成内容的?
专栏规划:再开始编写GPT之前,我们得对GPT是怎么生成内容的有一个大致的了解。目前的神经网络我们大多都可以看成是一个黑盒,即我们把数据输送给网络后,网络给我我们输出,我们可以不用关心这个黑盒里到底是怎么实现的,但是我们的目标是从零写一个类GPT模型,所以这里我们先对GPT生成内容的过程做一个大致的介绍。原创 2024-04-14 22:13:57 · 779 阅读 · 0 评论 -
从零实现诗词GPT大模型:pytorch框架介绍
专栏规划:因为咱们本系列文章主要基于深度学习框架pytorch进行,所以在正式开始之前,现对pytorch框架进行一个简单的介绍,主要面对深度学习或者pytorch还不熟悉的朋友。原创 2024-04-14 21:14:40 · 488 阅读 · 0 评论 -
从零实现诗词GPT大模型:数据集介绍和预处理
本文主要介绍咱们将要用到的数据集以及对该数据集进行预处理原创 2024-04-14 01:09:35 · 1688 阅读 · 0 评论 -
从零实现诗词GPT大模型:专栏内容规划
本系列文章将从头编写一个类GPT的深度学习模型,并在诗词数据集上进行训练,从而可以进行诗词创作。原创 2024-04-13 23:56:07 · 633 阅读 · 0 评论