
深度学习
晴天stick
这个作者很懒,什么都没留下…
展开
-
深度学习之数据增强
数据增强方法是指将数据集的数量增大十倍以上,从而极大化利用小样本集中的每个样本,使之也可以训练得到一个较好的模型。数据增强方法还可以提高模型的鲁棒性,防止其易在训练中出现过拟合的现象。常用的数据增强方法有:1.平移(Shift)变换:对原始图片在图像平面内以某种方式(预先定义或者随机方式确定平移的步长、范围及其方向)进行平移。2.翻转(Flip)变换:沿竖直或者水平方向对原始图片进行翻转。...原创 2020-02-02 19:18:05 · 2798 阅读 · 0 评论 -
tensorflow线性回归小例子(包含梯度裁剪和学习率衰减)
import tensorflow as tfimport numpy as np# 产生随机数x_data = np.random.rand(100).astype(np.float32)y_data = x_data * 0.1 + 0.3# 初始化Weight和biasWeight = tf.Variable(tf.random_uniform([1], -1.0, 1.0))...原创 2019-08-01 17:37:55 · 234 阅读 · 0 评论 -
Keras 搭建模型常用API函数汇总
这篇博客主要记录Keras中搭建模型常用的API函数,和一个综合的例子,方便之后的学习和使用。参考内容:https://keras-cn.readthedocs.io/en/latest/, https://keras.io/zh1.卷积层,包含一维卷积层、二维卷积层、二维图像裁剪层、二维图像边界填充层等2.池化层,包括二维平均池化、二维最大池化和二维全局平均池化、二维全局最大池化等3.常用层,包括激活函数层、展开层、全连接层、reshape层、dropout层,Lambda层原创 2019-08-05 15:22:25 · 1026 阅读 · 0 评论 -
TensorFlow tf.layer库
这篇博客主要记录tf.layer库中常用的一些API函数,方便后续的学习和使用1.池化层,包括一维平均池化、二维平均池化、一维最大池化、二维最大池化2.卷积层,包括一维卷积、二维卷积3.全连接层,包括展开层和全连接层4.dropout层和batch_normalization层原创 2019-08-04 21:45:59 · 802 阅读 · 0 评论 -
Tensorflow tf.train库
tf.train库包含优化器设置、梯度更新、梯度计算、梯度裁剪、学习率衰减等训练过程中需要用到的API函数1.优化器设置2.优化器最小化loss3.梯度裁剪4.学习率衰减5.例子:应用梯度裁剪、学习率衰减、优化器设置和loss最小化原创 2019-08-04 17:09:03 · 1861 阅读 · 0 评论 -
Tensorflow之创建常数数据Constants, Sequences, 和 Random Values
Tensorflow中有三种创建常数数据的方式,分别是Constants, Sequences, 和 Random Values。1.Constants:产生常数Tensortf.zeros(shape, dtype=tf.float32, name=None)shape:int列表或者一个1维的Tensordtype:Tensor类型,float32, float64, int8, in...原创 2019-08-02 21:32:20 · 403 阅读 · 0 评论 -
TensorFlow tf.nn库
tf.nn库能提供神经网络相关操作的支持,包括卷积操作(conv)、池化操作(pooling)、归一化、loss、分类操作、embedding、RNN、Evaluation等,相对tf.layer更底层一些。**1.激活函数Activation Functions2.dropout层3.卷积层4.池化层5.Normalization6.Losses7.Evaluation ...原创 2019-08-02 19:50:14 · 844 阅读 · 0 评论 -
读取图片成numpy数组,裁剪并保存 和 数据增强(ImageDataGenerator)
from PIL import Imageimport numpy as npfrom PIL import Imagefrom keras.preprocessing import imageimport matplotlib.pyplot as pltimport osimport cv2# from scipy.misc import toimageimport matplo...原创 2019-07-11 15:33:23 · 2286 阅读 · 0 评论 -
Keras学习笔记一:Darknet53搭建
第一步:数据预处理1.生成图片地址和对应标签def get_files(file_dir): image_list = [] label_list = [] class_list = [] cate = [file_dir + x for x in os.listdir(file_dir) if os.path.isdir(file_dir + x)] #图片地...原创 2019-06-30 10:48:20 · 3066 阅读 · 1 评论 -
深度学习论文之DenseNet
DenseNet:Densely Connected Convolutional Networks论文地址:https://arxiv.org/pdf/1608.06993.pdfDenseNet 是一种具有密集连接的卷积神经网络。在该网络中,任何两层之间都有直接的连接,也就是说,网络每一层的输入都是前面所有层输出的并集,而该层所学习的特征图也会被直接传给其后面所有层作为输入。下图是 Dens...原创 2019-07-09 16:55:34 · 207 阅读 · 0 评论 -
深度学习论文总结之ResNet-v2和ResNeXt
ResNet -v2:Identity Mappings in Deep Residual Networks论文地址:https://arxiv.org/abs/1603.0502优点:在整个网络中信息可以“直接”传播残差网络(ResNet)由“残差单元(Residual Units)”堆叠而成,每个单元可以表示为:其中,F代表残差函数,h代表恒等映射,即h(xl)=xl,通过添加恒等快...原创 2019-07-09 13:00:03 · 1396 阅读 · 0 评论 -
深度学习算法论文总结之SPPNet和ResNet
本文主要记录博主阅读的深度学习论文后的总结Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition论文地址:https://arxiv.org/abs/1406.4729传统的CNN算法包含两部分,卷积层和全连接层。卷积层并不需要固定的输入,但是全连接层需要一开始就设置好参数大小,导致CNN算法...原创 2019-07-03 15:34:58 · 1212 阅读 · 0 评论 -
深度学习模型总结之SqueezeNet
这篇博客主要介绍两个轻量级网络SqueezeNet和MobilNetSqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size论文地址:https://arxiv.org/abs/1602.07360深度卷积神经网络的研究主要的关注点是提升其准确度。但是在给定准确度水平的条件下,通...原创 2019-07-08 20:54:22 · 492 阅读 · 0 评论 -
深度学习(TensorFlow)学习笔记
1.将标签数字转化成列向量,如def convert_to_one_hot(Y, C):#Y为标签,C为类别数 Y = np.eye(C)[Y.reshape(-1)].T return YY.shape = (1,m),m为样本数np.eye()返回一个单位矩阵,[Y.reshape(-1)]的shape = (m,)中的m决定列方向的延展数量,而行方向的元素个数由C...原创 2019-06-13 22:10:11 · 562 阅读 · 0 评论 -
将数据集做成VOC2007格式
为了学习Faster RCNN,需要将自己的数据集制作成V0C2007的格式,搜索了许多的资料发现都不太完整,所以记录一下自己的学习过程,以便后续可能的使用。文件夹名字为VOC2007,里面分别是JPEGImages,Annotations,ImageSets三个文件,按顺序依次处理。1.图片的重命名VOC2007中图片名资是六位数字,如000001.jpg,因此最好将JPEGImages文...原创 2019-05-01 21:14:35 · 1219 阅读 · 0 评论 -
Lenet_solver超参数解析
# The train/test net protocol buffer definition //对训练和测试网络的定义//网络的路径,可以使用绝对路径或者相对路径net: "examples/mnist/lenet_train_test.prototxt" //位置//test_iter参数定义训练流程中前向传播的总批次数# test_iter specifies how ma...原创 2019-04-22 21:40:24 · 284 阅读 · 0 评论