- 博客(32)
- 收藏
- 关注
原创 Ubuntu 18.04下Java环境安装与配置
官网:https://www.oracle.com/technetwork/java/index.html下载页:https://www.oracle.com/technetwork/java/javase/downloads/index.html!在这里插入图片描述点击JDK DownLoad点击Linux x64 Compressed Archive 的 xxx.ta.gz文件下载建立安装文件夹$ cd /usr$ sudo mkdir java赋予目录最高权限,避免一些奇怪的问题$
2021-06-18 11:33:32
578
转载 Ubuntu 18.04下Java环境安装与配置
参考文章:https://www.cnblogs.com/lfri/p/10437266.htmlhttps://blog.youkuaiyun.com/qq_22999067/article/details/93089198
2021-06-18 11:18:54
162
转载 ResNet详解与分析
ResNet详解与分析转载:https://www.cnblogs.com/shine-lee/p/12363488.html
2021-03-14 23:34:21
177
转载 Ubuntu 下安装配置 VScode 的 C/C++ 开发环境
Ubuntu下安装配置 VScode 的 C/C++ 开发环境转载:https://www.jb51.net/article/186868.htm
2021-02-08 08:28:52
407
转载 吃透空洞卷积(Dilated Convolutions)
吃透空洞卷积(Dilated Convolutions)转载:https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247524546&idx=2&sn=0a2f069e07f2e9e964a9d53a5a807033&chksm=ec1c8d3bdb6b042da38b1c96b2a489d388dc9e6626713ba8e1b6e911fdd82223cc6ef923737f&mpshare=1&
2020-12-05 16:42:08
231
原创 GAN对抗生成网络
1.为什么GAN难以训练?GAN网络包含有:生成模型和判别模型两种。我们之前一直有在用判别模型,(分类、回归)都是在判别模型。而对于生成模型:往往比判别模型更加困难。就像是识别莫奈的绘画要比模仿莫奈的绘画更容易。个人理解生成模型是在创造数据,判别模型只是在处理数据。对于生成模型:GAN采用标准或均匀分布来提供噪声z,并利用深度网络生成模型G来创建图像x(x=G(z))。用一张图来表现就是如下:(类似于无中生有,但并不是完全的无中生有)在GAN中,我们增加了判别器(Discriminator)来
2020-11-19 10:15:36
328
转载 maxpooling主要有两大作用
maxpooling主要有两大作用invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力(1) translation invariance:这里举一个直观的例子(数字识别),假设有一个16x16的图片,里面有个数字1,我们需要识别出来,这个数字1可能写的偏左一点(图1),这个数字1可能偏右一点(图2),图1到图2相当于向右平移了一个单位,但是
2020-10-30 12:00:41
784
原创 Batch Normalization
Batch Normalization 一.为什么需要BN? 因为11卷积不改变图形的大小,当对同一个特征图用数值不同的11的卷积核时,会得到到不同的输出,当同时使用多个卷积核时就可以改变模型的维度,比如,一张500 * 500且厚度100 的图片在20个卷积核上做11的卷积,那么结果的大小为50050020。2.增加模型的深度减少参数量3增加非线性通常情况下,在构建网络模型时会使用激活函数,当使用1*1的卷积核来加深了网络模型,使用的激活函数的次数就会变多,激活函数大多是非线性的(有利于分离
2020-09-17 21:25:23
369
1
转载 Pytorch中的Batch Normalization操作
Pytorch中的Batch Normalization操作Batch Normalization这里只探究其具体运算过程,我们假设在网络中间经过某些卷积操作之后的输出的feature map的尺寸为4×3×2×2,4为batch的大小,3为channel的数目,2×2为feature map的长宽整个BN层的运算过程如下图上图中,batch size一共是4, 对于每一个batch的feature map的size是3×2×2,对于所有batch中的同一个channel的元素进行求均值与方差,比如上
2020-09-17 19:15:08
649
原创 1x1卷积的作用
1x1卷积的作用转载:https://www.yuque.com/docs/share/886daf31-34df-4118-8747-0dec9b13dbf6?#
2020-09-17 09:58:54
133
转载 Batch normalization理解
Batch normalization理解转载:https://www.jianshu.com/p/86530a0a3935
2020-09-15 23:32:56
94
转载 PYTORCH搭建MOBILENETV2
PYTORCH搭建MOBILENETV2转载:https://www.freesion.com/article/596734855/
2020-09-12 21:10:48
284
转载 代码实现卷积操作
代码实现卷积操作转载:https://blog.youkuaiyun.com/qq_41398808/article/details/97925070
2020-09-03 18:08:51
465
转载 卷积神经网络之卷积计算、作用与思想
卷积神经网络之卷积计算、作用与思想转载:https://www.cnblogs.com/shine-lee/p/9932226.html
2020-09-03 18:06:52
190
原创 GD(梯度下降)
GD(梯度下降)一.梯度下降分类1.批量梯度下降(Batch Gradient Descent)——BGD2.随机梯度下降(Stochastic Gradient Descent)——SGD3.小批量梯度下降(Mini-Batch Gradient Descent)——MBGD下面以线性回归算法来对三种不同梯度下降法进行理解:假设线性回归函数(前向传播):对应的损失函数(均方误差):二.批量梯度下降(BGD)思想:每一次的参数更新都用到了所有的训练样本数据;1.损失函数对求偏导,求梯
2020-08-29 00:03:59
728
转载 批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解转载:https://www.cnblogs.com/lliuye/p/9451903.html
2020-08-27 17:22:53
114
转载 线性可分性、线性不可分性的定性理解
线性可分性、线性不可分性的定性理解1.线性可分是指能使用线性组合组成的超平面将两类集合分开,线性不可分则没有能将两类集合分开的超平面2.线性可分的特点:低维转高维,还能保持原来的线性可分性的特点;但是高维转低维就不能保持原来的线性可分性3.线性不可分的特点:只要是线性变化到高维或者是低维,都不能是线性可分;但是经过一次非线性变化+仿射变换后或者多次就能实现线性可分。(这里可以运用于神经网络)转载:https://www.cnblogs.com/MyUniverse/p/10147187.html
2020-08-20 17:03:20
1823
转载 图神经网络越深,表现就一定越好吗?
图神经网络越深,表现就一定越好吗?转载:https://mbd.baidu.com/newspage/data/landingsuper?context=%7B%22nid%22%3A%22news_9365138010860825390%22%7D&n_type=0&p_from=1
2020-08-19 22:47:55
307
转载 PyTorch中网络里面的inplace=True
torch.nn.LeakyReLU(inplace=True)转载:https://www.jianshu.com/p/8385aa74e2de
2020-08-19 17:34:47
762
转载 梯度下降法的三种形式BGD、SGD以及MBGD
梯度下降法的三种形式BGD、SGD以及MBGD转载:https://www.cnblogs.com/wyuzl/p/7645602.html
2020-08-15 18:41:49
155
转载 支持向量机(svm)数学公式解释
支持向量机(svm)数学公式解释转载:https://www.jianshu.com/p/cd5c511fd5d2
2020-08-13 16:59:13
649
转载 支持向量机(svm)
@支持向量机(SVM)转载:https://www.jianshu.com/p/399ddcac2178欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将会带来全新的写作体验;
2020-08-13 15:44:23
124
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人