deeplearning
文章平均质量分 55
不会再写代码了
不是程序员 也不喜欢当程序员
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
减轻梯度消失方法整理
激活函数Batch Norm预训练+微调LSTMResNet权重正则化(梯度爆炸,如果发生梯度爆炸,权值的范数就会变的非常大,通过正则化项,可以部分限制梯度爆炸的发生。)...原创 2018-12-08 15:19:51 · 2010 阅读 · 0 评论 -
论文阅读- Non-local Neural Networks
现存问题Both convolutional and recurrent operations are building blocks that process one local neighborhood at a time.(卷积操作只处理neighborhood一小块)如何捕获远距离的依赖/相关性?对于序列化的数据,recurrent operations 是主流的解决方案...原创 2019-04-22 20:27:58 · 658 阅读 · 0 评论 -
Pytorch并行训练 示例
pytorch 多卡训练示例import torchimport torch.nn as nnfrom torch.utils.data import DataLoader,Dataset# parameter and DataLoadersinput_size = 5output_size = 2batch_size = 30data_size = 100device = ...原创 2019-03-06 17:31:47 · 1291 阅读 · 0 评论 -
deeplab中 global average pooling(GAP) 原理
之前有疑惑deeplab中ASPP(Atrous Spatial Pyramid Pooling) 采用多尺度空洞卷积+GAP并联提取多尺度语义信息时,GAP得到的结果是一维的,而空洞卷积得到的结果时二维的,不知道其中的细节是怎么操作从而实现并联的查资料+看源码资料https://sthalles.github.io/deep_segmentation_network/写到为了增加全局信息...原创 2019-03-06 17:08:31 · 1535 阅读 · 0 评论 -
图论分割与全景分割
图论分割与全景分割传统图分割算法相关工作预计在2.10(春节假期结束为止)完成相关工作,尽可能提前完成工作工作目标:(春节假期结束前完成 (20天左右))明确问题的定义明确图分割算法的评价标准(1天)理解总结各个算法的核心思想 (15天)总结算法中存在的问题以及思考改进措施 (与上一步同步进行)挑选比较好的算法(多个)进行复现 (5天)全景分割相关工作工作...原创 2019-01-14 10:57:39 · 1515 阅读 · 1 评论 -
Faster R-CNN系列(二):实现anchor
Faster R-CNN系列(二):实现anchor导入相关的包import numpy as npimport matplotlib.pyplot as pltimport matplotlib.patches as patches%matplotlib inline定义feature map 的size在这里定义为16*16每个feature map上的点对应原图中8*...原创 2018-12-25 15:02:59 · 983 阅读 · 0 评论 -
Faster R-CNN系列(四):RPN的实现之神经网络部分的实现
RPN的实现之神经网络部分的实现RPN的框架:图解上支路是所有anchor的修正量(4*9)下支路是前景背景9个anchor的分类得分(前景 背景)rpn_matchlabel为1的anchor: 当一个anchor与真实bounding box的最大IOU超过阈值Vt1(0.7)label为-1的anchor : 当一个anchor与真实bounding box的最...原创 2018-12-28 15:08:38 · 1461 阅读 · 0 评论 -
实现自己的Faster RCNN(Keras) (step-by-step)
Faster R-CNN系列的汇总:运行开源版1.window 运行开源的tensorflow版 faster rcnn自己实现keras版faster rcnn (step-by-step)以下两篇为keras 与faster rcnn的基础理解与实验2.anchor 的实现3.用keras构建多输入-多输出-多自定义loss的模型更新中...原创 2018-12-28 13:12:24 · 1657 阅读 · 0 评论 -
Faster R-CNN系列(三):用keras构建多输入-多输出-多自定义loss的模型
用keras构建多输入-多输出-多自定义loss的模型keras 有两种模型Sequential 顺序模型Model 函数式模型 Model(inputs,outputs,name=None)from keras import Sequential, Modelimport keras.layers as KLimport keras.backend as Kimport nu...原创 2018-12-27 14:33:32 · 12250 阅读 · 11 评论 -
AlexNet详细解读
转载自:https://blog.youkuaiyun.com/qq_24695385/article/details/80368618 目前在自学计算机视觉与深度学习方向的论文,今天给大家带来的是很经典的一篇文章 :《ImageNet Classification with Deep Convolutional Neu...转载 2018-12-09 14:05:38 · 649 阅读 · 0 评论 -
Faster R-CNN系列(一):配置与运行
Faster R-CNN系列(一):配置与运行很多人在windows上想使用GitHub上的faster rcnn进行训练会遇到各种各样的问题,在此吧整个流程和遇到的问题记录一下。本系列主要分成两个部分:在window系统上运行(训练)开源的Tensorflow版本的Faster R-CNN对Faster R-CNN原理以及代码进行详细解读环境windows 10pytho...原创 2018-12-19 21:10:16 · 4759 阅读 · 5 评论 -
Resnet(残差网络)
Resnet(残差网络)参考:https://www.cnblogs.com/alanma/p/6877166.htmlhttps://blog.youkuaiyun.com/lanran2/article/details/79057994问题训练更加深层的网络能够提取更多的特征。理论上来说会取得更好的效果。但是不能简单的增加网络层数单单增加网络的深度会导致梯度消失以及梯度爆炸的问题...原创 2018-12-13 20:03:10 · 441 阅读 · 0 评论 -
风格迁移-风格损失函数(Gram矩阵)理解
风格迁移-Gram损失函数(风格损失函数)详解吴恩达教授卷积神经网络的课程中,有一部分是关于风格迁移的内容。组合内容图片,风格图片生成新的图片主体思路是:随机生成一张图片(可以基于原内容图片生成,从而加速训练)计算其与内容图片之间的内容损失JcontentJ_{content}Jcontent计算其与风格图片之间的风格损失JstyleJ_{style}Jstyle最小化损失函数...原创 2018-12-12 21:16:09 · 18543 阅读 · 0 评论 -
论文阅读-(CCNet)Criss-Cross Attention for Semantic Segmentation
相关论文 non local 操作要点:criss-cross attention module 获得上下文信息循环操作, 每一个像素可以获得全图信息优势:与non-local 操作相比,少了85%的浮点运算,与non-local 操作相比,GPU占用率时1/11state of the art现存问题Due to the fixed geometric struct...原创 2019-04-22 20:58:33 · 2167 阅读 · 1 评论
分享