
深度学习基础
文章平均质量分 68
C小白爬坑日记
这个作者很懒,什么都没留下…
展开
-
梯度下降算法反向传播过程
之前学习过d2l课程,在反向传播那块过的比较快,后面训练了很多的神经网络,但总是感觉有些困顿迷茫,所以重新过了一遍基础知识。原创 2024-05-16 14:48:37 · 334 阅读 · 0 评论 -
Unet简单结构概述
构造的时候传入输入通道输出通道,使用的时候直接传入向量。下采样压缩高度和宽度,增加通道数。上采样是一个反卷积的过程。原创 2024-05-07 19:50:07 · 423 阅读 · 0 评论 -
Time_embedding采样的理解
越大,采样的周期越广泛,最后得到的采样的情况不同。影响的是采样的范围,时间步。一个简单的实例函数如下。原创 2024-05-01 16:12:20 · 787 阅读 · 0 评论 -
Transfomer代码实现与细节理解
在原论文Attention is all you need当中所提出的Transformer架构将过去的RNN/CNN 架构全部替换为Attention结构,提高了在NLP领域对于全文的理解能力和并行度,并且在其它领域该架构也有广泛的应用,本文作者为深度学习领域小白,尽可能用通俗的语言来描述这一架构,如果文中有错误或者理解不到位的地方,敬请读者指出。原创 2024-04-15 19:51:40 · 717 阅读 · 0 评论