
深度学习
eilot_c
这个作者很懒,什么都没留下…
展开
-
计算机视觉中常见的注意力机制
计算机视觉中常见的注意力机制本来自己写了,关于SENet的注意力截止,但是在准备写其他注意力机制代码的时候,看到一篇文章总结的很好,所以对此篇文章进行搬运,以供自己查阅,并加上自己的理解。文章目录计算机视觉中常见的注意力机制1.SENET中的channel-wise加权的实现2.CBAM中的通道注意力机制3.CBAM中的空间注意力机制4.CBAM中的融合4.Non-local5.dual pooling的pytorch实现1.SENET中的channel-wise加权的实现实现代码参考自:se原创 2020-09-02 18:50:52 · 3295 阅读 · 0 评论 -
深度学习环境训练搭建
apt-get update 失败apt-get update 失败vim resolv.conf更改下面的选项nameserver 172.1.0.200search 10011016-name.svc.cluster.local. svc.cluster.local. cluster.local.options ndots:5nameserver 8.8...原创 2020-04-29 16:15:08 · 876 阅读 · 0 评论 -
PaddlePaddle飞桨之深度学习7日入门 总结
目录Day01 新冠疫情可视化第一天的任务主要有两个,第一个是飞桨的本地安装,以及新冠疫情可视化。作业1:飞桨本地安装这门课程我感觉首先是可以给大家普及cv方面的知识,另一方面也是为了普及飞桨这个框架的使用。所以飞桨的本地安装。飞桨的官网:https://www.paddlepaddle.org.cn/documentation/docs/zh/install/index_cn...原创 2020-04-07 17:56:28 · 1988 阅读 · 0 评论 -
深度学习 常用的trick
from torchsummary import summarysummary(pytorch_model, input_size=(channels, H, W))打印pytorch模型的维度,以及模型的具体的信息,如参数量大小等等pip使用指定pip源来下载所需要的包,不需要更改源pipinstallscrapy -ihttps://mirrors.aliyun....原创 2019-10-29 09:58:58 · 695 阅读 · 0 评论 -
pytorch学习笔记(线性模型)
线性模型问题介绍 线性模型,通俗来讲就是给定很多个数据点,希望能够找到一个函数来拟合这些数据点令它的误差最小,比如简单的一元函数就可以来表示给出一系列的点,找一条直线,使得直线尽可能与这些点接近,也就是这些点到直线的距离之和尽可能小。用数学语言来严格表达 ,即 给定由 d 个属性描述的示例 x = (x1,x2 ,x3 , ...,xd) ' 其中 Xi 表示X在第i个属性上...原创 2019-01-30 21:31:53 · 1901 阅读 · 0 评论 -
pytorch学习笔记(Tensor,Variable,nn.Module,optim)
Tensor(张量)torch.Tensor 默认的是 torch.FloatTensor 数据类型,也可以定义我们自己想要的数据类型当然也可以创建一个全是0的空的Tensor或者取一个正态分布作为随机初始值可以像numpy一样通过索引的方式取得其中的元素,同时改变它的值除此之外可以在Tensor和numpy.ndarray之间相互转换:判断是否支持GPU,如果...原创 2019-01-30 20:12:04 · 3889 阅读 · 0 评论 -
pytorch学习笔记(反向传播)
反向传播算法是一个有效求解梯度的算法,本质上是一个链式求导的法则的应用。链式法则 考虑一个简单的函数,比如,我们可以直接求出这个函数的微分,但是这里我们要使用链式法则,令q=x+y,那么f=qz,对于这两个式子来说,分别求出他们的微分,,,同时q是x和y的求和,所以可以得到,。关心的问题是,链式法则告诉我们如何求得它们的值。 通过链式法则可以知道,如果对其...原创 2019-02-09 00:36:08 · 4029 阅读 · 0 评论 -
pytorch学习笔记(各种优化算法的变式)
梯度下降法 梯度下降法的更新公式:梯度下降法的变式1.SGD 随机梯度下降法是梯度下降法的一个小变形,就是每次使用一批(batch)数据进行梯度的计算,而不是计算全部的数据的梯度,因为现在深度学习使用的数据量都特别的大,所以每次计算所有的梯度都是不现实的,这样会导致运算时间过长,同时每次都计算全部的梯度还失去了一些随机性,容易引入一些局部误差,所以...原创 2019-02-04 14:58:43 · 634 阅读 · 0 评论 -
pytorch学习笔记(激活函数)
下面介绍五种激活函数:SigmoidSigmoid非线性激活函数的数学表达式是,其图形如下.sigmoid函数是将一个实数输入转化到0-1之间的输出,负数越大转化越靠近于0,越大的正数越靠近1. sigmoid 函数有两大缺点:sigmoid 函数会造成梯度消失,当它靠近1和0的时候,梯度基本上会变为0 ,如果用梯度下降法的话,如果梯度接近0,那么没有任何信息来更新参数,这样会...原创 2019-02-04 14:53:46 · 2352 阅读 · 0 评论 -
pytorch学习笔记(分类模型)
问题介绍机器学习中的监督学习主要分为分类问题和回归问题,回归问题希望预测的结果是连续的,而分类问题所预测的结果就是离散的类别.这个时候输入的变量可以是离散的,也可以是连续的,监督学习从数据中学习一个分类模型或者分类决策函数,被称之为分类器(classifer). 分类器对新的输入进行预测,这个过程称之为分类(classfication). 例如: 判断邮件是否为垃圾邮件,病人是否生病,明天是否...原创 2019-02-04 13:48:06 · 405 阅读 · 0 评论 -
faster rcnn踩坑记录
1.下载Faster-RCNN源代码并且进行安装 通过git工具直接下载,在linux命令行输入# Make sure to clone with --recursivegit clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git这里的recursive表示的是递归下载的意思,把目录下的caffe-fa...原创 2018-12-01 11:01:29 · 528 阅读 · 0 评论 -
cnn网络
从其他博客看到的一幅图片先保存,后面要对现在看的几篇论文进行总结.(待完善)原创 2018-10-29 18:35:36 · 166 阅读 · 0 评论