
DataWhale学习训练营
牧阳MuYoung
这个作者很懒,什么都没留下…
展开
-
DataWhale组队打卡学习营task10-3 DCGAN深度卷积生成对抗网络
Deep Convolutional Generative Adversarial Networkswe introduced the basic ideas behind how GANs work. We showed that they can draw samples from some simple, easy-to-sample distribution, like a unifor...原创 2020-02-26 20:13:32 · 305 阅读 · 1 评论 -
DataWhale组队打卡学习营task10-2 GAN生成对抗网络
Generative Adversarial NetworksThroughout most of this book, we have talked about how to make predictions. In some form or another, we used deep neural networks learned mappings from data points to l...原创 2020-02-26 18:15:15 · 262 阅读 · 0 评论 -
DataWhale组队打卡学习营task10-1 图像分类案例2
Kaggle上的狗品种识别(ImageNet Dogs)在本节中,我们将解决Kaggle竞赛中的犬种识别挑战,比赛的网址是https://www.kaggle.com/c/dog-breed-identification 在这项比赛中,我们尝试确定120种不同的狗。该比赛中使用的数据集实际上是著名的ImageNet数据集的子集。# 在本节notebook中,使用后续设置的参数在完整训练集上训练...原创 2020-02-26 17:24:58 · 188 阅读 · 0 评论 -
DataWhale组队打卡学习营task09-3 图像分类案例1
Kaggle上的图像分类(CIFAR-10)现在,我们将运用在前面几节中学到的知识来参加Kaggle竞赛,该竞赛解决了CIFAR-10图像分类问题。比赛网址是https://www.kaggle.com/c/cifar-10# 本节的网络需要较长的训练时间# 可以在Kaggle访问:# https://www.kaggle.com/boyuai/boyu-d2l-image-classif...原创 2020-02-26 15:41:02 · 157 阅读 · 0 评论 -
DataWhale组队打卡学习营task09-2图像风格迁移
样式迁移如果你是一位摄影爱好者,也许接触过滤镜。它能改变照片的颜色样式,从而使风景照更加锐利或者令人像更加美白。但一个滤镜通常只能改变照片的某个方面。如果要照片达到理想中的样式,经常需要尝试大量不同的组合,其复杂程度不亚于模型调参。在本节中,我们将介绍如何使用卷积神经网络自动将某图像中的样式应用在另一图像之上,即样式迁移(style transfer)[1]。这里我们需要两张输入图像,一张是内...原创 2020-02-26 15:20:02 · 294 阅读 · 0 评论 -
DataWhale组队打卡学习营task09-1 目标检测基础
9.3 目标检测和边界框%matplotlib inlinefrom PIL import Imageimport syssys.path.append('/home/kesci/input/')import d2lzh1981 as d2l# 展示用于目标检测的图d2l.set_figsize()img = Image.open('/home/kesci/input/img2...原创 2020-02-26 11:37:35 · 265 阅读 · 1 评论 -
DataWhale组队打卡学习营task06-3 梯度下降
梯度下降%matplotlib inlineimport numpy as npimport torchimport timefrom torch import nn, optimimport mathimport syssys.path.append('/home/kesci/input')import d2lzh1981 as d2l一维梯度下降证明:沿梯度反方向移动自...原创 2020-02-26 10:15:55 · 197 阅读 · 0 评论 -
DataWhale组队打卡学习营task06-2 凸优化
优化与深度学习优化与估计尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性)%matplotlib inlineimport syssys.path.append('/home/kesci/input')import d2lzh1981 as d2lfrom m...原创 2020-02-26 09:24:03 · 178 阅读 · 0 评论 -
DataWhale组队打卡学习营task06-1 批量归一化和残差网络
批量归一化(BatchNormalization)对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。1.对全连接层做批量归一化位置:全连接层中的仿射变换和激活函数之间。全连接:批...原创 2020-02-20 09:28:10 · 185 阅读 · 0 评论 -
DataWhale组队打卡学习营task05-3 卷积神经网络进阶
深度卷积神经网络(AlexNet)LeNet: 在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。神经网络发展的限制:数据、硬件AlexNet首次证明了学习到的特征可以超越⼿⼯设计的特征,从而...原创 2020-02-19 20:48:45 · 235 阅读 · 0 评论 -
DataWhale组队打卡学习营task04-3 LeNet
lenet 模型介绍lenet 网络搭建运用lenet进行图像识别-fashion-mnist数据集原创 2020-02-19 20:11:31 · 178 阅读 · 0 评论 -
DataWhale组队打卡学习营task05-1 卷积神经网络基础
本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。原创 2020-02-19 18:17:22 · 205 阅读 · 0 评论 -
DataWhale组队打卡学习营task04-3 Transformer
Transformer的概念以及相对于与传统CNN、RNN的优势 Transformer的实现,Multi-head Attention、FFN、AddNorm还有Encoder、Decoder的代码实原创 2020-02-19 17:10:58 · 213 阅读 · 0 评论 -
DataWhale组队打卡学习营task04-2 注意力机制和Seq2seq模型
介绍了注意力机制的概念和框架 介绍了点积注意力机制和多层感知机注意力机制的实现 最后介绍了使用注意力机制的seq2seq模型原创 2020-02-19 11:16:49 · 259 阅读 · 0 评论 -
DataWhale组队打卡学习营task04-1 机器翻译
机器翻译和数据集机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。import osos.listdir('/home/kesci/input/')[‘fraeng6506’, ‘d2l9528’, ‘d2l6239’]import sys...原创 2020-02-18 17:30:38 · 218 阅读 · 0 评论 -
DataWhale组队打卡学习营task03-3 循环神经网络进阶
ModernRNNGRURNN存在的问题:梯度较容易出现衰减或爆炸(BPTT)⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系RNN:GRU:• 重置⻔有助于捕捉时间序列⾥短期的依赖关系;• 更新⻔有助于捕捉时间序列⾥⻓期的依赖关系。载入数据集import osos.listdir('/home/kesci/input')[‘d2lzh1981’, ‘house...原创 2020-02-18 16:09:27 · 212 阅读 · 0 评论 -
DataWhale组队打卡学习营task03-2梯度消失、梯度爆炸
梯度消失、梯度爆炸以及Kaggle房价预测梯度消失和梯度爆炸考虑到环境因素的其他问题Kaggle房价预测梯度消失和梯度爆炸深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为L的多层感知机的第l层H(l)的权重参数为W(l),输出层H(L)的权重参数为W(L)。为了便于讨论,不考...原创 2020-02-18 11:48:01 · 172 阅读 · 0 评论 -
DataWhale组队打卡学习营task03-1
过拟合、欠拟合及其解决方案过拟合、欠拟合的概念权重衰减丢弃法模型选择、过拟合和欠拟合训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛...原创 2020-02-18 09:52:16 · 247 阅读 · 0 评论 -
DataWhale组队打卡学习营task01-1
线性回归矢量计算在模型训练或预测时,我们常常会同时处理多个数据样本并用到矢量计算。在介绍线性回归的矢量计算表达式之前,让我们先考虑对两个向量相加的两种方法。1.向量相加的一种方法是,将这两个向量按元素逐一做标量加法。2.向量相加的另一种方法是,将这两个向量直接做矢量加法。import torchimport time# init variable a, b as 1000 dime...原创 2020-02-14 16:38:19 · 191 阅读 · 0 评论