自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 Transformer的位置编码方法

这种方法带来的问题是,不仅这些数值会变得非常大,而且模型也会遇到一些比训练中的所有句子都要长的句子。此外,数据集中不一定在所有数值上都会包含相对应长度的句子,也就是模型很有可能没有看到过任何一个这样的长度的样本句子,这会严重影响模型的泛化能力。Transformer的作者们提出了一个简单但非常创新的位置编码方法,能够满足上述所有的要求。首先,这种编码不是单一的一个数值,而是包含句子中特定位置信息的d维向量(非常像词向量)。第二,这种编码没有整合进模型,而是用这个向量让每个词具有它在句子中的位置的信息。

2024-08-17 19:23:24 251

转载 Transformer中的encoder与decoder

Decoder同样也是由多层的自注意力机制和全连接层组成,但相比于Encoder还加入了一个额外的注意力机制,用于将Encoder输出的信息融合到生成过程中。Encoder和Decoder的区别在于它们的输入和输出以及它们的功能。Decoder的输入是Encoder的输出和前面生成的部分输出序列,输出是生成的下一个位置的词。它将输入序列中的每一个位置的词嵌入向量作为初始输入,然后通过多层的自注意力机制和全连接层,将每个位置的信息编码成一个定长的隐藏向量表示。

2024-08-16 17:59:43 146

原创 UE5 虚幻C++编译出错的原因分析和解决办法

【UE5】虚幻C++编译出错的原因分析和解决办法 - 哔哩哔哩 (bilibili.com)

2024-03-07 20:40:11 812

原创 AL-MDN

AL-MDN文档下载:

2023-08-14 03:08:42 120

原创 Gram矩阵

2023-08-11 18:17:55 111 1

转载 ​GPU, CUDA,cuDNN三者的关系总结​

简单来说,CPU适合串行计算,擅长逻辑控制。GPU擅长并行高强度并行计算,适用于AI算法的训练学习CUDA 是NVIDIA专门负责管理分配运算单元的框架cuDNN是用于深层神经网络的gpu加速库。

2023-07-06 18:08:45 310 1

原创 使用Keras搭建一个神经网络

2023-07-05 21:24:08 161 1

原创 keras图

2023-07-05 21:23:28 87 1

转载 c++ 实现图形类设计

cout

2023-03-19 18:18:09 1163

原创 虚幻引擎c++ 投射

虚幻引擎c++笔记

2023-02-20 13:26:27 372

原创 2. 指针(TODO)

2. 指针(TODO)

2023-02-20 13:23:15 72

AL-MDN文章解析及代码

AL-MDN文章解析及代码

2023-08-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除