
网络模型
文章平均质量分 52
zouxiaolv
踏实、稳重、前行
展开
-
全连接层的作用是什么?
全连接层的作用是什么? - 知乎CNN 入门讲解:什么是全连接层(Fully Connected Layer)? - 知乎(写的很明白)**************************************************************************************************************上一期我们讲到激活函数(Activation Function),假设我们经过一个Relu之后的输出如下Relu:以上.转载 2021-11-05 13:16:59 · 5142 阅读 · 1 评论 -
Siamese network之网络编写——pytorch
import torchimport torch.nn as nnimport torch.nn.functional as Fclass SiameseNet(nn.Module): """ A Convolutional Siamese Network for One-Shot Learning [1]. Siamese networts learn image representations via a supervised metric-based app.转载 2020-11-05 21:24:10 · 580 阅读 · 0 评论 -
CNN 模型所需的计算力(flops)和参数(parameters)数量是怎么计算的
看到有人对flops有疑惑,先捋清这个概念。FLOPS:注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs:注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。网上打字很容易全小写,造成混淆,本问题针对模型,应指的是FLOPs。————————————————————————————转载 2020-10-28 11:12:42 · 1713 阅读 · 0 评论 -
pytorch 利用netron可视化网络结构
if __name__ == '__main__': import torch.onnx import netron#####hourglass是自己的网络代码,自己定义的网络结构类名 pose = HourglassNet(Bottleneck, 256, 8, 1, 16) # .cuda() dummy_input = torch.randn(1, 3,256, 256)#输出的文件名称,一般是在当前定义网络路径下 onnx_path= "pose.o.原创 2020-07-27 13:12:51 · 659 阅读 · 0 评论 -
pytorch之resnet中def _make_residual解释layers
def _make_residual(self, block, planes, num_blocks, stride=1): downsample = None if stride != 1 or self.inplanes != planes * block.expansion: downsample = nn.Sequential( nn.Conv2d(self.inplanes, planes * bloc...原创 2020-07-23 10:58:42 · 992 阅读 · 0 评论 -
pytorch利用tensorboardx可视化网络结构图
1、对于自己网络有外部参数需要输入时:如下所示,外部参数有:nstack, inp_dim, oup_dim ,bnclass PoseNet(nn.Module): def __init__(self, nstack, inp_dim, oup_dim, bn=False, increase=128, init_weights=True, **kwargs):2、定义可视化结构 1)首先,对网络PoseNet传入参数输入:如,nstack=4; inp_dim=256;......原创 2020-07-22 11:16:52 · 1211 阅读 · 0 评论 -
dilated conv带孔卷积、pooling层提高感受野 反卷积 的理解
https://blog.youkuaiyun.com/jiachen0212/article/details/78548667转载 2020-06-01 20:47:16 · 188 阅读 · 0 评论 -
感受野( Receptive Field)
https://blog.youkuaiyun.com/mzpmzk/article/details/86564509?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.nonecaseht.原创 2020-06-01 10:38:59 · 159 阅读 · 0 评论 -
sknet阅读笔记及pytorch实现代码
https://blog.youkuaiyun.com/zahidzqj/article/details/105982058?utm_medium=distribute.pc_relevant.none-task-blog-baidujs-2https://blog.youkuaiyun.com/DD_PP_JJ/article/details/103810253转载 2020-05-27 10:24:30 · 770 阅读 · 0 评论 -
深度学习——卷积神经网络特点汇总
https://www.cnblogs.com/guoyaohua/p/8534077.html转载 2019-10-23 14:23:08 · 640 阅读 · 0 评论 -
“看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)
https://blog.youkuaiyun.com/kklots/article/details/17136059原创 2019-08-06 22:07:35 · 224 阅读 · 0 评论 -
[CNN] 卷积、反卷积、池化、反池化
https://blog.youkuaiyun.com/quiet_girl/article/details/845790381、卷积的数学操作上述是比较直观的图形展示的例子,如果把卷积操作写成矩阵相乘,则对于4∗4 4*44∗4的输入和3∗3 3*33∗3的卷积核的结果如下:卷积神经网络的数学表达式三、池化池化的定义比较简单,最直观的作用便是降维,常见的池化有最大池化...原创 2019-08-08 10:08:00 · 1050 阅读 · 0 评论 -
图神经网络概述
1 简单的图的参数介绍G=(V,E,A)\mathcal { G } = ( V , E , A )G=(V,E,A)V(N个)是节点集合, 只描述了存在的节点 E是边集合, 只描述了存在的连接(边) A(NxN)是图的邻接矩阵, 描述了节点之间的连接关系, 当对应的边eij(连接vi,vj的边)存在的时候, 则对应的Aij = wij> 0, 若eij不存在, 则Aij = 0...原创 2019-07-16 16:12:10 · 1120 阅读 · 1 评论 -
反卷积写的比较好的文章
https://buptldy.github.io/2016/10/29/2016-10-29-deconv/https://blog.youkuaiyun.com/Fate_fjh/article/details/52882134https://blog.youkuaiyun.com/u014722627/article/details/60574260https://www.zhihu.com/quest...原创 2019-07-05 11:37:39 · 170 阅读 · 0 评论 -
王井东详解ICCV 2017入选论文:通用卷积神经网络交错组卷积
https://mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=2649441412&idx=1&sn=76b8e24616a4cdc07fbf985798ef4942&chksm=82c0ad00b5b724163561a9174f8213d365ca87f5d73c7ec278ac358293b55e7dcb9e488...转载 2018-09-12 09:55:51 · 451 阅读 · 0 评论