
深度学习笔记
文章平均质量分 92
深度学习笔记,个人记录使用,仅记录一些自以为很受启发的部分
wonder-wall
三分钟热度
展开
-
【动手深度学习-笔记】注意力机制(四)自注意力、交叉注意力和位置编码
像这样的,查询、键和值来自同一组输入的注意力机制,被称为自注意力(self-attention)或者内部注意力(intra-attention)。总而言之,卷积神经网络和自注意力都拥有并行计算的优势,而且自注意力的最大路径长度最短。DETR中,为了保留特征的空间信息,没有将二维数据平铺为一维,而是分别对行和列进行位置编码。在自注意力机制中,词向量是不带位置信息的,也就是说,将词的顺序打乱,得到的输出是一样的。词元组成的序列映射到另一个长度相等的序列,其中的每个输入词元或输出词元都由。原创 2022-10-17 16:18:52 · 25878 阅读 · 0 评论 -
【动手深度学习-笔记】R-CNN系列
区域卷积神经网络(region-based CNN或regions with CNN features,R-CNN)是将深度模型应用于目标检测的开创性工作之一。原创 2022-09-26 10:53:15 · 1253 阅读 · 0 评论 -
【动手深度学习-笔记】注意力机制(三)多头注意力
多头注意力原创 2022-09-07 10:09:55 · 2375 阅读 · 0 评论 -
【动手深度学习-笔记】注意力机制(二)注意力评分函数
注意力评分函数:加性注意力,缩放点积注意力原创 2022-09-04 17:25:48 · 1612 阅读 · 0 评论 -
【动手深度学习-笔记】注意力机制(一)注意力机制框架
注意力机制原创 2022-09-04 16:16:47 · 1429 阅读 · 0 评论 -
【动手深度学习-笔记】批量规范化(Batch Normalization)
训练深层神经网络是十分困难的,批量规范化(batch normalization) 是一种流行且有效的技术,可持续加速深层网络的收敛速度。原创 2022-09-02 12:18:53 · 867 阅读 · 0 评论 -
【动手深度学习-笔记】多通道卷积核、1X1卷积
当输入包含多个通道时,需要构造一个与输入数据具有相同输入通道数的卷积核,以便与输入数据进行互相关运算。原创 2022-08-20 21:24:37 · 2045 阅读 · 0 评论 -
【动手深度学习-笔记】从全连接层到卷积
卷积就是为了满足不变性而对全连接的一种改进原创 2022-08-18 12:25:21 · 985 阅读 · 0 评论