
深度学习
文章平均质量分 91
丶夜未央丶
这个作者很懒,什么都没留下…
展开
-
Pytorch中nn.Module中的self.register_buffer解释
Pytorch中nn.Module中的self.register_buffer解释原创 2022-06-08 11:50:12 · 8231 阅读 · 0 评论 -
Mask R-CNN 学习笔记
Mask R-CNN学习笔记前述前述从R-CNN ,fast R-CNN,faster R-CNN一直看到了现在的mask R-CNN,一步一步看着从detection到segmentation是如何一步一步走来的,人们是如何改进的。前面几篇文章作为了解,但是Mask R-CNN必须作为精读。好了,不多说了,进入正题吧。...原创 2020-07-02 18:38:03 · 457 阅读 · 0 评论 -
什么是反卷积(快速理解)
什么是反卷积参考博客我们知道输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而又是我们需要将图像恢复到原来的尺寸以便进行进一步的计算,整个扩大图像尺寸,实现图像由小分辨率到大分辨率的映射的操作,叫做上采样(Upsample)反卷积是上采样的一种方式,反卷积也叫转置卷积。图1 反卷积原理图(stride=1)上图所示的就是一个反卷积的工作过程,与卷积过程的主要区别在于反卷积输出的图片尺寸会大于输入图片的尺寸,通过增加padding来实现这一操作,上图展示的是一个stride为1的转载 2020-07-01 23:03:26 · 17426 阅读 · 1 评论 -
对Batch Normalization的理解
对Batch Normalization的理解BN思想产生的来源只有BN层就能解决问题了吗?BatchNorm的好处参考博客这几天在看Res_Net的相关知识,其中遇到了有关Batch Normalization的深层次问题,为什么越深层次的网络学习会越慢,收敛会越慢的问题。于是写一篇博客,作为对Batch Normalization的学习笔记。机器学习领域or深度学习领域都会有这样的假设:IID独立同分布,就是假设训练数据和测试数据都是满足相同分布的,这是通过训练数据获得的模型在测试集获得好的效果的一原创 2020-06-30 12:13:04 · 640 阅读 · 1 评论 -
ML2021_Spring_HW03心得
ML2021_Spring_HW03心得torchvision.transform 学习卷积神经网络课程链接这个作业提了三个要求,从简单到难。Easy: Build a simple convolutional neural network as the baseline.Medium: Design a better architecture or adopt different data augmentations to improve the performance.Utilize pro原创 2021-07-25 09:15:09 · 347 阅读 · 0 评论 -
ML2021_Spring_HW02心得
ML2021_Spring_HW02心得作业1 Phoneme Classification助教视频讲解作业1 Phoneme Classification助教视频讲解本次作业助教的视频讲解(需要翻墙)原创 2021-07-14 15:37:40 · 1669 阅读 · 0 评论 -
无约束最优化问题总结(包含对梯度下降法最详细的解释)
因为最近在学运筹学的课程,以及最近开始看一些深度学习实现算法最底层的一些东西,发现二者之间有很多承上启下的东西。所以写了这篇博客,算是对最优化问题的一个总结。方便之后不懂的时候回来复习。...原创 2020-11-15 17:55:06 · 2503 阅读 · 1 评论