
计设
文章平均质量分 89
lingboboo
这个作者很懒,什么都没留下…
展开
-
Inception系列
文章目录Inception V1:Going deeper with convolutionsInception V1如何降低参数量的?Architecture DetailsInception V1的亮点补充Inception V2:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift亮点Batch NormalizationInception V3:Rethinking t原创 2021-09-26 13:54:09 · 569 阅读 · 1 评论 -
ResNet论文笔记
神经网络退化(degradation) 现象的提出上面的图片指示的是在 CIFAR-10 这个小型的数据集上,56 层的神经网络的表现比不过 20 层的神经网络。也就是层数加深,网络却反而退化了。堆叠网络的缺点:1.网络难以收敛,梯度消失/爆炸在一开始就阻碍网络的收敛。(传统解决办法:通过标准初始化和中间标准化层在很大程度上解决。这使得数十层的网络能通过具有反向传播的随机梯度下降(SGD)开始收敛。)2.当更深层次的网络能够开始收敛时,一个退化问题就暴露出来了:随着网络深度的增加,精确度趋于饱和原创 2021-09-25 18:17:48 · 1120 阅读 · 0 评论 -
Faster R-CNN
文章目录前言VGG16论文网络框架摘要ROI poolingRPN卷积前言VGG16Faster R-CNN使用的主干网络,网络结构如下(13个卷积层+3个全连接层):RCNN,Fast-RCNN,Faster-RCNN以及YOLO的区别论文网络框架摘要SPPnet、 Fast R-CNN等网络减少了检测网络的运行时间,暴露了区域建议计算的瓶颈。在Faster R-CNN中,引入了一个区域建议网络(RPN),它与检测网络共享全图像卷积特征,从而实现几乎零消耗的区域建议。RP原创 2021-09-25 15:50:37 · 995 阅读 · 0 评论 -
AlexNet论文笔记
文章目录前言dropoutfilter和kernel激活函数论文笔记摘要Architecture关键技术/创新1.ReLU非线性2.Training on Multiple GPUs3.局部响应标准化4.Overlapping Pooling(重叠池化)Summary前言dropoutdropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。它是CNN中防止过拟原创 2021-09-25 14:31:57 · 178 阅读 · 0 评论 -
Hybrid Task Cascade论文笔记
文章目录Hybrid Task Cascade综述1.Cascade Mask R-CNN2.Interleaved Execution交叉执行3.Mask Information Flow4.Spatial Contexts from SegmentationFusing Contexts Feature into Main FrameworkHybrid Task Cascade综述1.它将bbox回归和mask预测交叉,而不是并行执行它们2.它通过将前一阶段的mask特征反馈到当前阶段,采用了原创 2021-09-19 17:29:29 · 1064 阅读 · 0 评论