
深度学习
文章平均质量分 69
AI_王布斯
这个作者很懒,什么都没留下…
展开
-
图像识别-花的分类(tensorflow实现)
本实例使用的数据集是3700张,包含5个种类的花。flower_photo:daisy(雏菊)/dandelion(蒲公英)/roses(玫瑰)/sunflower(向日葵)/tulips(郁金香)import matplotlib.pyplot as pltimport numpy as npimport osimport PIL # Python Imaging Libraryimport tensorflow as tffrom tensorflow import kerasfro原创 2021-09-08 19:45:24 · 2208 阅读 · 2 评论 -
深度学习-卷积神经网络代码详解
构造卷积神经网络CNN将形状为(高度,宽度,色彩通道数)的张量作为输入,忽略批次的大小。在本实例中,我们将配置CNN处理(32,32,3)的输入,通过参数input_shape传递给第一层来实现这个目的。model = models.Sequential()Sequential()方法是一个容器,描述了神经网络的网络结构,在Sequential()的输入参数中描述从输入层到输出层的网络结构。第一层卷积层:32个3*3的卷积核,使用Relu作为激活函数model.add(layers.Conv2原创 2021-09-07 19:06:24 · 5825 阅读 · 0 评论 -
深度学习-卷积神经网络的结构&经典网络介绍
卷积神经网络的结构总体结构通产情况下,卷积神经网络由若干个卷积层、激活层、池化层、以及全连接层构成。卷积层卷积层是 卷积神经网络的核心所在,通过卷积运算可以达到提取特征和降维处理两个重要的目的。激活层作用是将前一层的线性输出,通过非线性的激活函数进行处理,这样用于模拟任意函数,从而增强网络的表表征能力。在深度学习领域,ReLU(修正线性单元)是目前使用较多的激活函数,主要原因是它收敛更快,同时它还解决了梯度消失的为问题。池化层池化层也称为子采样或者下采样,目的是缩小高、长方向上的空间的运原创 2021-09-05 18:02:38 · 2187 阅读 · 0 评论 -
深度学习-图解卷积运算
卷积神经网络(Convolutional Neural Network,CNN)针对全连接网络 的局限做出了修正,加入了卷积层(Convolution层)和池化层(Pooling 知 层)。CNN被广泛应用于图像识别、语音识别等各种场合,在图像识别的比赛中, 基于深度学习的方法几乎都以CNN为基础(比如,AlexNet、VGGNet、 Google Inception Net及微软的ResNet等)上。近几年深度学习大放异彩, CNN功不可没。单通道,二维卷积运算示例:如上图所示,红色的方框圈中的数原创 2021-09-03 21:01:01 · 11704 阅读 · 1 评论 -
深度学习-图解反向传播算法
什么是正向传播网络?前一层的输出作为后一层的输入的逻辑结构,每一层神经元仅与下一层的 神经元全连接,通过增加神经网络的层数虽然可为其提供更大的灵活性, 让网络具有更强的表征能力,也就是说,能解决的问题更多,但随之而来 的数量庞大的网络参数的训练,一直是制约多层神经网络发展的一个重要瓶颈。什么是反向传播?反向传播(Backpropagation algorithm)全称“误差反向传播”,是在 深度神经网络中,根据输出层输出值,来反向调整隐藏层权重的一种方法。为什么需要反向传播?为什么不直接使用梯度原创 2021-08-30 21:42:01 · 1440 阅读 · 0 评论 -
机器学习-感知机
什么是感知机?感知机(Perceptron),又称神经元(Neuron,对生物神经元进行了模仿)是神 经网络(深度学习)的起源算法,1958年由康奈尔大学心理学教授弗兰克·罗森布拉 特(Frank Rosenblatt)提出,它可以接收多个输入信号,产生一个输出信号。其中,x1和x2称为输入,w1和w2为权重,θ为阈值,y为输出。神经元更为通用的表达式:感知机的功能作为分类器/回归器,实现自我学习实现逻辑运算,包括逻辑和(AND)、逻辑或(OR)组成神经网络神经元作为分类器/回归器原创 2021-08-29 11:30:36 · 325 阅读 · 0 评论 -
深度学习-卷积神经网络
为什么用CNN我们都知道CNN常常被用在影像处理上,如果你今天用CNN来做影像处理,当然也可以用一般的neural network来做影像处理,不一定要用CNN。比如说你想要做影像的分类,那么你就是training一个neural network,input一张图片,那么你就把这张图片表示成里面的pixel,也就是很长很长的vector。output就是(假如你有1000个类别,output就是1000个dimension)dimension。那我相信根据刚才那堂课内容,若给你一组training dat原创 2021-08-28 20:57:15 · 302 阅读 · 0 评论 -
TensorFlow-张量3
操作形状Reshaping a tensor is of great utility.import tensorflow as tf# Shape returns a `TensorShape` object that shows the size on each dimensionvar_x = tf.Variable(tf.constant([[1], [2], [3]]))print(var_x.shape)# result:(3,1)将张量转换为python列表。# You ca原创 2021-08-27 11:29:30 · 353 阅读 · 0 评论 -
TensorFlow-张量2
形状简介张量有形状。下面是几个相关术语:形状:张量的每个轴的长度(元素数量)。秩:张量轴数。标量的秩为 0,向量的秩为 1,矩阵的秩为 2。轴或维度:张量的一个特殊维度。大小:张量的总项数,即乘积形状向量注:虽然您可能会看到“二维张量”之类的表述,但 2 秩张量通常并不是用来描述二维空间。import tensorflow as tfrank_4_tensor = tf.zeros([3, 2, 4, 5])print("Type of every element:", rank_4_原创 2021-08-26 22:52:26 · 109 阅读 · 0 评论 -
TensorFlow-张量简介
基础知识张量具有统一的类型的多维数组,张量和numpy.array具有一定的相似性。张量的内容是无法改变的,只能创建新的张量。导入需要的包。import tensorflow as tfimport numpy as np下面来创建一些基本的张量。创建一个标量,标量包含单个值。# This will be an int32 tensor by default;rank_0_tensor = tf.constant(4)print(rank_0_tensor)# result: tf原创 2021-08-25 20:48:42 · 142 阅读 · 0 评论 -
深度学习-Optimization-Local Minimum And Saddle Point
训练失败的原因现在我们要讲的是Optimization的部分,所以我们要讲的东西基本上跟Overfitting没有什麼太大的关联,我们只讨论Optimization的时候,怎麼把gradient descent做得更好,那為什麼Optimization会失败呢?你常常在做Optimization的时候,你会发现,随著你的参数不断的update,你的training的loss不会再下降,但是你对这个loss仍然不满意,就像我刚才说的,你可以把deep的network,跟linear的model,或比较s原创 2021-08-24 12:08:50 · 421 阅读 · 0 评论 -
深度学习-starting
深度学习的发展趋势回顾一下deep learning的历史:1958: Perceptron (linear model)1969: Perceptron has limitation1980s: Multi-layer perceptronDo not have significant difference from DNN today1986: BackpropagationUsually more than 3 hidden layers is not helpful19原创 2021-08-22 21:34:10 · 151 阅读 · 0 评论