
自学笔记
文章平均质量分 81
自学笔记
奋土
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
2023/08学习笔记
2023年8月学习笔记原创 2023-07-14 10:38:34 · 283 阅读 · 0 评论 -
2023/05学习笔记
在 Transformer 模型中,Q、K、V 分别代表 Query(查询)、Key(键)、Value(值)。这些是在 Transformer 的自注意力(Self-Attention)机制中使用的,这种机制允许模型对输入序列中的每个元素分配不同的注意力。在自注意力机制中,输入首先被映射成三个不同的向量:Query、Key 和 Value。这个映射通常是通过将输入向量与相应的权重矩阵进行点乘来实现的。假设我们的输入是一个矩阵 X,其维度为 (n, d),其中 n 是序列长度,d 是输入向量的维度。原创 2023-05-17 22:44:24 · 1270 阅读 · 1 评论 -
2023/03学习笔记
自学笔记原创 2023-03-18 14:19:00 · 1182 阅读 · 0 评论