
深度学习
文章平均质量分 83
.
Super.Bear
https://github.com/Paraniod1
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
动漫图片生成实战(GAN,WGAN)
动漫图片使用的是一组二次元动漫头像的数据集, 共 51223 张图片,无标注信息,图片主体已裁剪、 对齐并统一缩放到96 × 96大小。这里使用GAN来生成这些图片。一、数据集的加载以及预处理对于自定义的数据集,需要自行完成数据的加载和预处理工作,代码贴在后面,使用make_anime_dataset 函数返回已经处理好的数据集对象。 # 获取数据路径 img_path = glob.glob(r'E:\Tensorflow\tensorflowstudy\GAN\an原创 2022-02-18 21:12:00 · 6849 阅读 · 9 评论 -
生成对抗网络(GAN)
博弈学习引出:用一个漫画家的成长轨迹来形象介绍生成对抗网络的思想:一对双胞胎兄弟, 分别称为老二G和老大 D, G 学习如何绘制漫画, D 学习如何鉴赏画作。在年幼时代G,D,尚且只学会了如何使用画笔和纸张, G 绘制了一张不明所以的画作,如图(a)所示,由于此时 D 鉴别能力不高, 觉得 G 的作品还行,但是人物主体不够鲜明。 在D 的指引和鼓励下, G 开始尝试学习如何绘制主体轮廓和使用简单的色彩搭配。随之G 提升了绘画的基本功, D 也过分析名作和初学者 G 的作品, 初步掌握了鉴别作品的能力原创 2022-02-18 19:17:35 · 1990 阅读 · 0 评论 -
Fashion MNIST 图片重建与生成(VAE)
前面只能利用AE来重建图片,不是生成图片。这里利用VAE模型完成图片的重建与生成。一、数据集的加载以及预处理# 加载Fashion MNIST数据集(x_train, y_train), (x_test, y_test) = keras.datasets.fashion_mnist.load_data()# 归一化x_train, x_test = x_train.astype(np.float32) / 255., x_test.astype(np.float32) / 255.#原创 2022-02-17 20:40:42 · 3283 阅读 · 0 评论 -
Fashion MNIST图片重建实战(AE)
Fashion MNIST 是一个定位在比 MNIST 图片识别问题稍复杂的数据集,它的设定与MNIST 几乎完全一样,包含了 10 类不同类型的衣服、鞋子、包等灰度图片,图片大小为28 × 28,共 70000 张图片,其中 60000 张用于训练集, 10000 张用于测试集,每行是一种类别图片。 Fashion MNIST 除了图片内容与 MNIST 不一样,其它设定都相同,大部分情况可以直接替换掉原来基于 MNIST 训练的算法代码,而不需要额外修改。由于 Fashion MNIST 图片识别相对于原创 2022-02-17 17:25:49 · 1131 阅读 · 0 评论 -
自编码器(Auto-Encoder)
一、自编码器原理自编码器算法属于自监督学习范畴,如果算法把x作为监督信号来学习,这里算法称为自监督学习(Self-supervised Learning)在监督学习中神经网络的功能:。是输入的特征向量长度,是网络输出的向量长度。对于分类问题,网络模型通过把长度为输入特征向量????变换到长度为的输出向量????,这个过程可以看成是特征降维的过程,把原始的高维输入向量????变换到低维的变量????。特征降维(Dimensionality Reduction)在机器学习中有广泛的应用, 比如文件原创 2022-02-16 10:54:59 · 58226 阅读 · 7 评论 -
情感分类问题IMDB实战(SimpleRNN,LSTM,GRU)
使用经典的 IMDB 影评数据集来完成情感分类任务。 IMDB 影评数据集包含了50000 条用户评价,评价的标签分为消极和积极, 其中 IMDB 评级<5 的用户评价标注为0,即消极; IMDB 评价>=7 的用户评价标注为 1,即积极。 25000 条影评用于训练集,25,000 条用于测试集一、数据集加载以及数据集预处理# 加载IMDB数据集,数据采用数字编码,一个数字代表一个单词(x_train, y_train), (x_test, y_test) = keras.da.原创 2022-02-15 20:24:17 · 3062 阅读 · 0 评论 -
RNN之GRU
LSTM 具有更长的记忆能力, 在大部分序列任务上面都取得了比基础的 RNN 模型更好的性能表现,LSTM 不容易出现梯度弥散现象。 但是 LSTM 结构相对较复杂, 计算代价较高,模型参数量较大。一、GRU原理研究发现, 遗忘门是 LSTM 中最重要的门控, 甚至发现只有遗忘门的网络在多个基准数据集上面优于标准 LSTM 网络。 在简化版 LSTM中,门控循环网络(Gated Recurrent Unit,简称 GRU)是应用最广泛的 RNN 变种之一。 GRU把内部状态向量和输出向量合并,统一.原创 2022-02-15 17:24:20 · 1796 阅读 · 0 评论 -
RNN之LSTM
循环神经网络不仅容易出现梯度弥散或者梯度爆炸,还不能处理较长的句子,也就是具有短时记忆(Short-term memory)为了克服这些缺点,提出了长短时记忆网络(Long Short-Term Memory,简称 LSTM)。 LSTM 相对于基础的 RNN 网络来说,记忆能力更强,更擅长处理较长的序列信号数据一、LSTM原理基础的 RNN 网络结构如图,上一个时间戳的状态向量 h????-1与当前时间戳的输入????????经过线性变换后,通过激活函数????????????ℎ后得到新的状原创 2022-02-15 16:23:11 · 1263 阅读 · 0 评论 -
RNN循环神经网络
一、预备知识1.序列具有先后顺序的数据一般叫作序列(Sequence)。比如随时间而变化的商品价格数据,某件商品 A 在 1 月到 6 月之间的价格变化趋势,记为一维向量: [????1, ????2, ????3, ????4, ????5, ????6]。如果要表示b件商品的在1月到6月之间的变化趋势,可以记为 2 维张量:[[????1(1), ????2(1), ⋯ , ????6(1)] , [????1(2), ????2(2), ⋯ , ????6(2)] , ⋯ , [????1(?原创 2022-02-15 15:07:55 · 1829 阅读 · 0 评论 -
CIF10实战(ResNet18)
实现18 层的深度残差网络 ResNet18,并在 CIFAR10 图片数据集上训练与测试。标准的 ResNet18 接受输入为224 × 224 大小的图片数据,我们将 ResNet18 进行适量调整,使得它输入大小为32 × 32,输出维度为 10。调整后的 ResNet18 网络结构如图:一、数据集加载以及数据集预处理def preprocess(x, y): # 将数据映射到-1~1 x = 2 * tf.cast(x, dtype=tf.float32) / 255...原创 2022-02-13 14:55:25 · 4680 阅读 · 0 评论 -
深度残差网络
AlexNet、 VGG、 GoogLeNet 等网络模型的出现将神经网络的发展带入了几十层的阶段,网络的层数越深,越有可能获得更好的泛化能力。但是当模型加深以后,网络变得越来越难训练,这主要是由于梯度弥散和梯度爆炸现象造成的。在较深层数的神经网络中,梯度信息由网络的末层逐层传向网络的首层时, 传递的过程中会出现梯度接近于 0 或梯度值非常大的现象怎么解决深层神经网络的梯度弥散和梯度爆炸现象呢?既然浅层神经网络不容易出现梯度现象,那么可以尝试给深层神经网络添加一种回退到浅层神经网络的机制。当深层神..原创 2022-02-13 13:04:29 · 3810 阅读 · 0 评论 -
CIF100实战(VGG13)
CIFAR-100 数据集就像CIFAR-10,除了它有100个类,每个类包含600个图像。,每类各有500个训练图像和100个测试图像。CIFAR-100 中的100个类被分成20个超类。每个图像都带有一个精细标签(它所属的类)和一个粗糙标签(它所属的超类)这里使用比较强大的经典网络结构VGG13,根据数据集特点修改部分网络结构,完成 CIFAR100 图片识别。调整后的VGG13网络模型:一、数据集加载以及数据集预处理# 预处理def preprocess(x, y...原创 2022-02-12 21:34:22 · 2125 阅读 · 0 评论 -
LeNet-5实战
一、LeNet-5介绍LeNet-5用于手写数字和机器打印字符图片识别的神经网络。LeNet-5 的网络结构图,它接受32 × 32大小的数字、字符图片,经过第一个卷积层得到[b, 28,28,6] 形状的张量,经过一个向下采样层,张量尺寸缩小到[b,14,14,6] ,经过第二个卷积层,得到[b,10,10,16] 形状的张量,同样经过下采样层,张量尺寸缩小到[b,5,5,16]],在进入全连接层之前,先将张量打成[b,400]的张量,送入输出节点数分别为 120、 84 的 2 个全连接层,原创 2022-02-11 13:02:45 · 1636 阅读 · 0 评论 -
CNN卷积神经网络(二)
一、卷积层在 TensorFlow 中,既可以通过自定义权值的底层实现方式搭建神经网络,也可以直接调用现成的卷积层类的高层方式快速搭建复杂网络1.2D卷积函数在 TensorFlow 中, 通过 tf.nn.conv2d 函数可以方便地实现 2D 卷积运算。 tf.nn.conv2d基于输入????: [b, ℎ, ????, ????????????] 和 卷积核????: [????, ????, ????????????, ????????????????] 进行卷积运算, 得到输出??原创 2022-02-12 19:14:51 · 520 阅读 · 0 评论 -
CNN卷积神经网络
如何识别、分析并理解图片、视频等数据是计算机视觉的一个核心问题,全连接层在处理高维度的图片、 视频数据时往往出现网络参数量巨大,训练非常困难的问题。通过利用局部相关性和权值共享的思想。Yann Lecun 在 1986 年提出了卷积神经网络(Convolutional Neural Network, 简称 CNN)。随着深度学习的兴盛,卷积神经网络在计算机视觉中的表现大大地超越了其它算法模型,呈现统治计算机视觉领域之势。这其中比较流行的模型有用于图片分类的 AlexNet、 VGG、 GoogLeN..原创 2022-02-10 18:57:32 · 3034 阅读 · 0 评论 -
CIFAR10实战(自定义网络)
CIFAR10 数据集由加拿大 Canadian Institute For Advanced Research 发布,它包含了飞机、汽车、鸟、猫等共 10 大类物体的彩色图片,每个种类收集了 6000 张32 × 32大小图片,共 6 万张图片。其中 5 万张作为训练数据集, 1 万张作为测试数据集。一、数据集加载以及数据集的预处理# 预处理: 类型转换 和归一化def preprocess(x, y): # [0-255] --> [-1, 1] ...原创 2022-02-12 20:10:16 · 1183 阅读 · 0 评论 -
CIFAR10数据下载失败解决办法
将数据集从官网下载下来放在.keras/ datasets目录下是不行的,因为在load_data里面指定了路径来自官网,前不可修改。自定义加载数据集import numpy as npimport osdef load_batch(file): import pickle with open(file, 'rb') as fo: d = pickle.load(fo, encoding='bytes') d_decoded = {}原创 2022-02-11 20:06:08 · 1818 阅读 · 0 评论 -
汽车油耗预测实战
这里将利用全连接网络模型来完成汽车的效能指标 MPG(Mile Per Gallon, 每加仑燃油英里数)的预测问题实战一、加载数据集以及数据集的处理官方数据集在下载时,出现链接超时的失败问题,可以使用百度云下载数据集,然后放在.keras文件夹下http://链接:https://pan.baidu.com/s/1GEKol03p9nraw-kscE7bXw提取码:llkq无论是否是去Auto MPG下载的数据集,还是网盘的数据集,都还是调用以下方法加载数据集本地路径#...原创 2022-02-11 18:39:22 · 3161 阅读 · 0 评论 -
TensorFlow----fashion_mnist数据集神经网络的搭建
小白入门深度学习,教你搭建一个简单的神经网络,五分钟入门原创 2022-01-26 19:51:17 · 2706 阅读 · 0 评论