
深度学习
安河桥北以北
机器人爱好者,RMer
展开
-
【学习笔记】AlexNet
00 前言因为上个月准备考试,所以就没写博文,这篇是上个月交给人工智能工程伦理课的作业,所以现在发出来,凑个博文数哈哈哈01 网络结构1.1第一层卷积池化层卷积:第一层输入图像为224*224*3的图像,这样需要说明一下的就是,学术界普遍认为这里的224*224*3是不合适的,后面改成了227*227*3的大小,然后通过11*11*3的卷积核进行卷积运算,卷积核的步长(Stride)为4。第一层使用了96个11*11*3的卷积核,拆分成了两部分进行,每一部分各48个卷积核,分别在一个GPU上进行原创 2020-12-17 17:15:40 · 857 阅读 · 0 评论 -
【学习笔记】CNN卷积神经网络
概述深度学习是一种利用复杂结构的多个处理层来实现对数据进行高层次抽象的算法,是机器学习的一个重要分支。传统的BP算法仅有几层网络,需要手工指定特征且易出现局部最优问题,而深度学习引入了概率生成模型,可自动地从训练集提取特征,解决了手工特征考虑不周的问题,而且初始化了神经网络权重,采用反向传播算法进行训练,与BP算法相比取得了很好的效果。本章主要介绍了深度学习相关的概念和主流框架,重点介绍卷积神经网络和循环神经网络的结构以及常见应用。感受野感受野就是视觉感受区域的大小。在卷积神经网络中,感受野是CNN中原创 2020-12-16 09:38:42 · 2324 阅读 · 0 评论 -
【学习笔记】M-P神经元and感知机
M-P神经元模型 χ1、χ2、...χn\ \chi_1 、 \chi_2 、... \chi_n χ1、χ2、...χn代表传入信号 w1、w2...wn\ w_1、w_2...w_n w1、w2...wn代表权重大脑????神经元的状态:兴奋和抑制 分别利用 1 和 0 来进行表示通过这样的二进制的机制来模拟大脑工作 w\ w w的大小来模拟神经元的重要程度?就是一个权重,好比一个公司的股份,你股份越原创 2020-12-16 09:37:44 · 1389 阅读 · 1 评论 -
【学习笔记】BP神经网络学习
简介误差反向传播算法简称反向传播算法(即BP算法)。使用反向传播算法的多层感知器又称为BP神经网络。BP算法是一个迭代算法,它的基本思想为:1、先计算每一层的状态和激活值,直到最后一层(前向传播)2、计算每一层的误差,误差的计算过程是从最后一层向前推进的3、更新参数(目标是误差变小)。迭代前面两个步骤,直到满足停止准则(比如相邻两次迭代的误差的差别很小)本文约定对于M-P神经元和感知机(简单的前馈神经网络)都在上一篇博文中介绍了,现在先规定一下下面讲解推到过程的时候的一些记号原创 2020-12-16 09:36:23 · 536 阅读 · 0 评论 -
【学习笔记】windows10+tensorflow-gpu环境搭建
经过上个学期在学校和年初在家的失败后,本来没打算在自己笔记本上整的了,就怕到时候又重装,emmmm????本来想回到学校用实验室的电脑,不过现在这样回到学校还要好久,所以无奈之下还是装了,既然一次成功了,所以发出来纪念以下哈哈哈哈哈哈????01 前言因为RoboMaster2020赛季需要雷达,上个学期在实验室用Linux系统安装配置好成功运行过以后呢,就打算在自己笔记本上也整一个玩,但是经过了n次失败以后,就没弄了然后今年年初也弄了一下,还是歇菜了????因为5月在即,虽然疫情影响,但是好久没原创 2020-12-16 09:35:29 · 378 阅读 · 1 评论