
深度学习-图像分类
文章平均质量分 55
毕设笔记
Strive_LiJiaLe
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
硬件安全与机器学习的结合
硬件木马特征扩展算法,有效解决了样本特征集较 少的问题,利用支持向量机建立硬件木马检测模型并识别出硬件木马的特征原创 2023-10-24 16:18:40 · 1002 阅读 · 0 评论 -
BP网络权值调公式推导(梯度下降算法推导)
最近学习神经网络时,看到调整权值时,对下图公式5.23不是很清楚,搞不懂为什么ε要对w求偏导数,看了很多权值调整的博客也没有细讲其推论,都是只给出下图中的这些公式。经过翻阅书籍终于找到了,5.23这个公式是如何得来的。这要从梯度下降算法推导来理解:首先看一下梯度的定义:看不懂也没关系,只要认识梯度的符号▽请看下面的推导过程:可以发现5.19和5.23很相似,就可以将5.19的推论应用到5.23来理解。5.19:对x的变化更新,通过f(x)对x的导数(梯度)来描述。再乘以学习率。5.23原创 2021-03-30 15:51:18 · 1661 阅读 · 2 评论 -
第二章:卷积神经网络结构
1.卷积层卷积层旨在学习输入的特征表示。卷积神经网络有两种方式降低参数数目。局部感知也称稀疏连接。在处理图像这样的高纬度输入时,让每个神经元与前一层的所有神经元进行全连接是不现实的。相反,每个神经元只与输入数据的局部区域进行连接。该连接的空间大小叫作神经元的感知野。然后在更高层将局部的信息综合起来就得到了全局的信息。如有一副1000×1000像素的图像和1000个隐藏层神经元,如果全连接,就有1000×1000×1000个连接,也就是10e9个权值参数。那么通过局部感知,每个隐含层神经元只与前原创 2021-03-31 16:13:13 · 360 阅读 · 0 评论 -
第一章:神经网络中的名词解释
激活函数一般来讲每个神经元都可以对应一个激活函数,简言之,激活函数就是模拟信息在神经元之间传递的激活或者抑制状态。当信息达到了激活函数的阈值,该信息将神经元激活,否则神经元处于抑制状态。这里,激活函数的另一作用就是将神经元的输出“标准化”,防止信息过于膨胀。损失函数将数据输入,将神经网络的输出与历史数据的标签最对对比训练。因为新建立的网络没有受过训练,必然会出错。为解决之一问题,构建损失函数来显示输出数据与真实数据的差异。理想情况下,不断训练,损失函数无限接近于0,这就达到了最佳的训练目的。减小损.原创 2021-03-22 12:21:37 · 583 阅读 · 0 评论 -
最全环境配置:Anaconda+pytorch+pycharm / Anaconda+tensorflow
安装环境最近学习神经网络,下面是我安装环境时,找的很全面的经验帖,有那地方卡住可以下面留言1. Anaconda+pytorch+pycharm,以及配置工具:https://www.jianshu.com/p/03fd1e22bcfe2.Anaconda+tensorflow:https://blog.youkuaiyun.com/xiong_backbone/article/details/104531444...原创 2021-03-18 20:06:52 · 267 阅读 · 0 评论 -
图像分类或检测完整代码--搭建AlexNet模型--tensorflow实现
在这里插入代码片原创 2021-03-22 13:39:06 · 1956 阅读 · 1 评论 -
AlexNet网络----pytorch
结构示意图:本网络的亮点:1.首次使用GPU进行网络加速训练2.使用了ReLU激活函数,而不是传统的Sigmoid激活函数(失活)3.使用可LRN局部响应归一化4.全连接层前两层使用Dropout随机失活神经元操作减少过拟合一、开始搭建网络----pytorch1.各层结构计算公式:卷积层全连接层初始化权重函数与传播其中:1.将输入的数据拿去网络中传播2.然后flatten展平操作(dim=1,含义是channel,因为tensor的排列是[ ,channel,原创 2021-03-20 18:14:57 · 192 阅读 · 0 评论 -
VGG神经网络搭建实例----pytorch
笔记,感谢B站up:霹雳巴拉Wz1.搭建模型脚本model.pyimport torch.nn as nnimport torch# 定义分类网络结构(全连接层)class VGG(nn.Module): # 初始化函数 # feature是后面make_features函数提取特征网络结构; # num_classes:分类的类别个数 # 是否对网络权重进行初始化 def __init__(self, features, num_classes=1000, init_weigh原创 2021-03-21 16:11:16 · 492 阅读 · 1 评论 -
VGG网络详解及感受野的计算
模型D,16层:13个卷积层,3个全连接层。感受野:在卷积神经网络中,决定某一层输出结果中一个元素所对应的输入层的区域的大小,被称作是感受野(receptive)。通俗解释:输出feature map上的一个单元对应输入层上的区域大小。这就证明了3个33的卷积核可以替代一个77的卷积核。结构分析...原创 2021-03-21 15:24:34 · 332 阅读 · 0 评论 -
预测模型
import torchimport torchvision.transforms as transformsfrom PIL import Imagefrom model import LeNet# 图片处理大小核标准化transform = transforms.Compose( [transforms.Resize((32, 32)), transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0原创 2021-03-19 18:11:36 · 181 阅读 · 0 评论 -
模型训练
import torchimport torchvisionimport torch.nn as nnfrom model import LeNetimport torch.optim as optimimport torchvision.transforms as transformsimport matplotlib.pyplot as pltimport numpy as nptransform = transforms.Compose( [transforms.ToTens原创 2021-03-19 17:51:48 · 172 阅读 · 0 评论 -
搭建神经网络模型
简单例子import torch.nn as nnimport torch.nn.functional as Fclass Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 16, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(16原创 2021-03-19 11:56:28 · 614 阅读 · 0 评论 -
深度学习-反向传播
观看b站up:霹雳吧啦Wz的课程学习笔记误差的计算softmax激活函数:输出的y1,y2并不满足规则分布,为使得其服从概率分布,进行表达式处理。此时O1+O2=1损失的计算(交叉熵损失)1.多分类:softmax例如:分类人和男人,那么就不满足概率分布了,只能二分类。2.二分类:sigmoid默认log以e为底等于ln误差的反省传播有了上面的损失之后,就可以进行误差的反向传播;以求W(2)11为例讲解:将W(2)11的输入作为常数a来处理,方便计算。求其偏导(原创 2021-03-18 18:58:43 · 501 阅读 · 0 评论 -
深度学习-图像处理
卷积神经网络全连接层卷积层池化层声明:在做本科毕设,本文章作为学习笔记,观看另一博主(B站:霹雳吧啦Wz)的教学视频学习的,感谢大佬!全连接层卷积层1.卷积核的channel与输入特征层的channel相同比如:输入是三维的,卷积核也必须是三维的2.输出的特征矩阵channel与卷积核的个数相同思考:1.对于偏移量为-1的情况?那么卷积核1的输出矩阵为,原输出矩阵各个值加上-1。2.对于加上激活函数该如何计算?为什么要使用激活函数:当引入非线性因素时,为了使其具备解决非线性问题的能原创 2021-03-18 18:06:25 · 313 阅读 · 0 评论