
深度学习
文章平均质量分 74
深度学习相关
StriveZs
这个作者很懒,什么都没留下…
展开
-
TensorFlow-静态图和PyTorch-动态图区别
title: TensorFlow-静态图和PyTorch-动态图区别categories:KnowledgePyTorchtags:KnowledgePyTorchTensorFlow计算图TensorFlow-静态图和PyTorch-动态图区别最近在重新学习一遍pytorch,之前对于自动求导中的计算图的概念不是很清楚,这里从头看了一遍,有了解一下,简单的写一下自己的笔记。PyTorch自动求导看起来非常像TensorFlow,这两个框架中,我们都定义了计算图,使用自动.原创 2021-07-02 11:03:47 · 4070 阅读 · 0 评论 -
使用Google Colaboratory跑深度学习
使用Google Colaboratory跑深度学习使用Colaboratory首先,要使用Google的产品,翻墙是必须的吧。 然后点击进入Google云端硬盘,如下界面:然后点击新建–更多–Colaboratory,就会出现这个界面红框可以修改页面名称,点击蓝框进行设置GPU运行更改运行时的类型:设置为GPU:验证一下,输入如下代码运行:import tensorflow as tftf.test.gpu_device_name()出现如下结果则表示是GPU运行:可以原创 2020-09-27 18:41:35 · 942 阅读 · 2 评论 -
白化和归一化
白化和归一化白化白话的目的就是去除输入数据的冗余信息。例如:训练数据是图像,由于图像中相邻像素之间具有很强的相关性,因此输入是冗余的的。白话的目的就是降低输入的荣誉的性。输入数据集,经过白化处理后,生成新数据集满足两个条件:特征相关性较低特征具有相同的方差白化算法实现的过程:第一步是进行PCA操作,将数据降维第二步是对新的坐标进行归一化操作归一化定义数据标准化(Normalization),也称为归一化,归一化就是将你需要处理的数据再通过某种算法那处理后,将其限定在你需要的一原创 2020-07-26 13:20:41 · 1691 阅读 · 0 评论 -
offset max-pooling 介绍
offset max-pooling下面再让我们来继续学习有关 offset 池化的内容,为了简单起见,我们暂时不用二维的图像作为例子,而是采用一维作为示例,来讲解池化:如上图所示,我们在x轴上有20个神经元,如果我们选择池化size=3的非重叠池化,那么根据我们之前所学的方法应该是:对上面20个,从1位置开始进行分组,每3个连续的神经元为一组,然后计算魅族的最大值(最大池化),19、20号神经元被丢弃,如下图所示:我们也可以在20号神经元后面,人为的添加一个数值为0的神经元编号21,与19、20原创 2020-07-19 12:36:39 · 889 阅读 · 0 评论 -
PyTorch中nn.Linear()理解
PyTorch中nn.Linear()理解计算公式$ y = xA^{T}+b$这里A为weight,b为bias。代码部分初始化部分代码class Linear(Module): ... __constants__ = ['bias'] def __init__(self, in_features, out_features, bias=True): super(Linear, self).__init__() self.in_features = in_feat原创 2020-06-21 19:50:56 · 3648 阅读 · 2 评论 -
环境配置:NVIDIA+Anaconda+PyTorch+PyCharm
title: 环境配置:NVIDIA+Anaconda+PyTorch+PyCharmcategories:KnowledgePyTorchtags:NVIDIAPyTorchPyCharmCUDA环境配置:NVIDIA+Anaconda+PyTorch+PyCharm步骤配置英伟达显卡安装CUDA首先打开自己的英伟达控制面板查看自己的系统信息,如下图所示:我的是CUDA10.2.95因此需要去英伟达官网下载对应版本的CUDA,下载地址:click here.原创 2020-06-05 09:03:31 · 483 阅读 · 0 评论