
深度学习
文章平均质量分 90
Deeplearning
__Miracle__
这个作者很懒,什么都没留下…
展开
-
交通标志识别
• 交通标志识别系统是智能交通系统与先进辅助驾驶系统的重要组成部分• 算法的准确率是交通标志识别一个十分重要的因素• 算法的实时性决定了研究成果能否转化为具有实际应用价值的产品基于深度学习的端到端实时目标检测方法YOLO算法的基本思想。...转载 2022-08-15 09:07:40 · 1074 阅读 · 0 评论 -
YOLOv5
YOLO算法在正式介绍YOLO之前,我们来看一张图可以看出YOLO的最大特点是速度快。YOLO在精度上仍然落后于目前最先进的检测系统。虽然它可以快速识别图像中的目标,但它在定位某些物体尤其是小的物体上精度不高。论文中做了精度/时间的权衡。接着之前在概述中所介绍的,进入到真正端到端的目标检测:直接在网络中提取特征来预测物体分类和位置。YOLO算法系列的演变过程:YOLO->YOLO9000->YOLOv2->YOLOv3YOLO介绍YOLO是一种新的目标检测方法。以前的目标检测转载 2022-01-04 09:31:06 · 3171 阅读 · 0 评论 -
Object Detection 1
目标检测概述学习目标了解目标检测算法分类知道目标检测的常见指标IoU了解目标定位的简单实现方式什么是目标检测目标检测(Object Detection)的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置。例子:确定某张给定图像中是否存在给定类别(比如人、车、自行车、狗和猫)的目标实例;如果存在,就返回每个目标实例的空间位置和覆盖范围。作为图像理解和计算机视觉的基石,目标检测是解决分割、场景理解、目标追踪、图像描述、事件检测和活动识别等更复杂更高层次的视觉任务的基础。目标检测转载 2021-12-28 09:42:11 · 176 阅读 · 0 评论 -
深度学习速成版04---RNN及LSTM
RNN模型RNN(Recurrent Neural Network), 中文称作循环神经网络, 它一般以序列数据为输入, 通过网络内部的结构设计有效捕捉序列之间的关系特征, 一般也是以序列形式进行输出.RNN单层网络结构:以时间步对RNN进行展开后的单层网络结构:RNN的循环机制使模型隐层上一时间步产生的结果, 能够作为当下时间步输入的一部分(当下时间步的输入除了正常的输入外还包括上一步的隐层输出)对当下时间步的输出产生影响RNN模型的作用:因为RNN结构能够很好利用序列之间的关系, 因此针转载 2021-09-24 13:28:04 · 1714 阅读 · 4 评论 -
深度学习速成版03---实战Keras+ CNN+搭建表情识别系统
fer2013人脸表情数据集简介fer2013人脸表情数据集由35886张人脸表情图片组成,其中,测试图(Training)28708张,公共验证图(PublicTest)和私有验证图(PrivateTest)各3589张,每张图片是由大小固定为48×48的灰度图像组成,共有7种表情,分别对应于数字标签0-6,具体表情对应的标签和中英文如下:0 anger 生气; 1 disgust 厌恶; 2 fear 恐惧; 3 happy 开心; 4 sad 伤心;5 surprised 惊讶; 6 normal转载 2021-09-24 11:41:52 · 1416 阅读 · 2 评论 -
深度学习速成版02---卷积神经网络
线性神经网络局限性任意多个隐层的神经网络和单层的神经网络都没有区别,而且都是线性的,而且线性模型的能够解决的问题也是有限的神经网络的种类基础神经网络:线性神经网络,BP神经网络,Hopfield神经网络等进阶神经网络:玻尔兹曼机,受限玻尔兹曼机,递归神经网络等深度神经网络:深度置信网络,卷积神经网络,循环神经网络,LSTM网络等卷积神经网络传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适卷积神经网络CNN,在原来多转载 2021-09-24 11:36:05 · 2100 阅读 · 0 评论 -
深度学习速成版01---神经网络
深度学习与机器学习的区别机器学习的特征工程步骤是要靠手动完成的,而且需要大量领域专业知识深度学习通常由多个层组成,它们通常将更简单的模型组合在一起,通过将数据从一层传递到另一层来构建更复杂的模型。通过大量数据的训练自动得到模型,不需要人工设计特征提取环节。深度学习算法试图从数据中学习高级功能,这是深度学习的一个非常独特的部分。因此,减少了为每个问题开发新特征提取器的任务。适合用在难提取特征的图像、语音、自然语言领域神经网络人工神经网络( Artificial Neural Network,原创 2021-09-22 15:37:23 · 2184 阅读 · 1 评论 -
深度学习入门06----卷积神经网络
7.1 整体结构7.2 卷积层7.2.1 全连接层存在的问题7.2.2 卷积运算7.2.3 填充7.2.4 步幅7.2.5 3 维数据的卷积运算7.2.6 结合方块思考7.2.7 批处理7.3 池化层池化层的特征7.4 卷积层和池化层的实现7.4.1 4 维数组7.4.2 基于 im2col 的展开7.4.3 卷积层的实现7.4.4 池化层的实现7.5 CNN 的实现7.6 CNN 的可视化7.6.1 第 1 层权重的可视化7.6....转载 2021-09-22 14:53:17 · 2089 阅读 · 0 评论 -
深度学习入门05----与学习有关的技巧
6.1 参数的更新6.1.1 探险家的故事6.1.2 SGD6.1.3 SGD 的缺点6.1.4 Momentum6.1.5 AdaGrad6.1.6 Adam6.1.7 使用哪种更新方法呢6.1.8 基于 MNIST 数据集的更新方法的比较6.2 权重的初始值6.2.1 可以将权重初始值设为 0 吗6.2.2 隐藏层的激活值的分布6.2.3 ReLU的权重初始值6.2.4 基于 MNIST 数据集的权重初始值的比较6.3 Batch Normalizati...转载 2021-09-22 14:51:30 · 497 阅读 · 0 评论 -
深度学习入门04----误差与反向传播算法
我们介绍了神经网络的学习,并通过数值微分计算了神经网络的权重参数的梯度(严格来说,是损失函数关于权重参数的梯度)。数值微分虽然简单,也容易实现,但缺点是计算上比较费时间。我们将学习一个能够高效计算权重参数的梯度的方法——误差反向传播法。5.1 计算图计算图将计算过程用图形表示出来。这里说的图形是数据结构图,通过多个节点和边表示(连接节点的直线称为“边”)。为了让大家熟悉计算图,本节先用计算图解一些简单的问题。从这些简单的问题开始,逐步深入,最终抵达误差反向传播法。5.1.1 用计算图求解现在,我们尝转载 2021-09-22 14:48:54 · 2654 阅读 · 0 评论 -
深度学习入门03----神经网络的学习
4.1 从数据中学习神经网络的特征就是可以从数据中学习。所谓“从数据中学习”,是指可以由数据自动决定权重参数的值。感知机的例子中,我们对照着真值表,人工设定了参数的值,但是那时的参数只有 3 个。而在实际的神经网络中,参数的数量成千上万,在层数更深的深度学习中,参数的数量甚至可以上亿,想要人工决定这些参数的值是不可能的。4.1.1 数据驱动数据是机器学习的命根子。从数据中寻找答案、从数据中发现模式、根据数据讲故事……这些机器学习所做的事情,如果没有数据的话,就无从谈起。因此,数据是机器学习的核心。现转载 2021-09-22 14:46:23 · 1596 阅读 · 0 评论 -
深度学习入门02----神经网络原理
3.1.1 神经网络的例子用图来表示神经网络的话,如图 3-1 所示。我们把最左边的一列称为输入层,最右边的一列称为输出层,中间的一列称为中间层。中间层有时也称为隐藏层。“隐藏”一词的意思是,隐藏层的神经元(和输入层、输出层不同)肉眼看不见。另外,本书中把输入层到输出层依次称为第 0 层、第 1 层、第 2 层(层号之所以从 0 开始,是为了方便后面基于 Python 进行实现)。图 3-1 中,第 0 层对应输入层,第 1 层对应中间层,第 2 层对应输出层。图 3-1 神经网络的例子3.1.2转载 2021-09-22 14:44:11 · 2845 阅读 · 0 评论 -
深度学习入门01----神经网络基础之感知器
2.1 感知机是什么感知机接收多个输入信号,输出一个信号。这里所说的“信号”可以想象成电流或河流那样具备“流动性”的东西。像电流流过导线,向前方输送电子一样,感知机的信号也会形成流,向前方输送信息。但是,和实际的电流不同的是,感知机的信号只有“流 / 不流”(1/0)两种取值。0 对应“不传递信号”,1 对应“传递信号”。图 2-1 是一个接收两个输入信号的感知机的例子。_x_1、_x_2 是输入信号,y 是输出信号,_w_1、_w_2 是权重(w 是 weight 的首字母)。图中的○称为“神经元”或转载 2021-09-22 14:42:10 · 544 阅读 · 0 评论 -
Keras构建神经网络及实战
#建立一个Sequential顺序模型from keras.models import Sequentialmodel = Sequential()Using TensorFlow backend.#通过.add()叠加各层网络# Dense即全连接层,逻辑上等价于这样一个函数:权重W为m*n的矩阵.输入x为n维向量.# 激活函数Activation.偏置bias.输出向量out为m维向量.out=Activation(Wx+bias).# 即一个线性变化加一个非线性变化产生输出.这是深度原创 2021-09-22 14:19:52 · 518 阅读 · 2 评论 -
CNN表情识别系统制作(1)----fer2013人脸表情数据集简介
fer2013人脸表情数据集简介fer2013人脸表情数据集由35886张人脸表情图片组成,其中,测试图(Training)28708张,公共验证图(PublicTest)和私有验证图(PrivateTest)各3589张,每张图片是由大小固定为48×48的灰度图像组成,共有7种表情,分别对应于数字标签0-6,具体表情对应的标签和中英文如下:0 anger 生气; 1 disgust 厌恶; 2 fear 恐惧; 3原创 2020-06-11 15:30:29 · 5703 阅读 · 3 评论 -
Pytorch基本运算
import torch#定义向量vector = torch.tensor([1,2,3,4])print('Vector:\t\t', vector)print('Vector Shape:\t', vector.shape)Vector: tensor([1, 2, 3, 4])Vector Shape: torch.Size([4])#定义矩阵matrix = torch.tensor([[1,2],[3,4]])print('Matrix:\n', matrix)p原创 2021-09-18 15:34:38 · 333 阅读 · 0 评论 -
深度学习----Pytorch+神经网络+CNN+Cifar10+Mnist
神经网络人工神经网络( Artificial Neural Network, 简写为ANN)也简称为神经网络(NN)。是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)结构和功能的 计算模型。经典的神经网络结构包含三个层次的神经网络。分别输入层,输出层以及隐藏层。其中每层的圆圈代表一个神经元,隐藏层和输出层的神经元有输入的数据计算后输出,输入层的神经元只是输入。神经网络的特点每个连接都有个权值同一层神经元之间没有连接最后的输出结果对应的层也称之为全连接层FC那么为什么设计这样的结构原创 2021-09-18 14:30:47 · 741 阅读 · 0 评论