神经网络小记

神经网络在最近几年特别火,不管是做传统机器学习的,还是图片分类、nlp的都需要去学习了解它。
只有一层隐藏层的神经网络:这时候相当于集成学习,隐藏层相当于bagging学习多个模型,输出层使用上一层的结果作为输入相当于boosting。也即模型拥有降低偏差和方差的能力。
没有隐藏层的相当于感知机。
没有隐藏层的网络只能处理线性的问题,不能处理非线性的问题。

**通用近似原理:**如果一个神经网络拥有线性输出层和至少一个隐藏层,则在神经元足够多的,(激活函数)满足一些弱条件的情况下,构造成的符合函数可以近似代替任何在Rn上的连续函数。

通用近似定理告诉我们,一层不行就增加多层。但是如果在隐藏层的输出仍然是线性的,函数符合后也将会是一个线性的,可以通过调整系数后变为一层的模型。故隐藏层的输出函数不能是线性的。我们称每层的输出函数为激活函数。
如果有n个特征,要想逼近任意的函数,则最少需要的节点数O(3(n-1)),此时对应的层数最少为 2 l o g 2 N 2log_2N 2log2N(向上取整).解释:两个特征组合后输出,再将结果和其他特征组合,则至少有3(n-1)个节点,根据二分法,每次特征两两运算,则最少需要 2 l o g 2 N 2log_2N 2log2N层。
如果只需要一层隐藏层时,由于凸集上的VC dimension为 2 N 2^N 2N,故最多需要 2 N 2^N 2N个感知机即可完全分类。也即需要这么多神经元才能逼近任意函数。
也即增加层数能在一定程度上降低运算量。

常用激活函数:

  • sigmod:取值区间为[0,1],故当输入很大或者很小时,其导数 f ′ ( z ) = f ( z ) ( 1 − f ( z ) ) f'(z)=f(z)(1-f(z)) f(z)=f(z)(1f(z))趋近于0,出现梯度消失
  • Tanh:取值区间为[-1,1],导数为 1 − f 2 ( z ) 1-f^2(z) 1f2(z),当输入很大很小时,导数也趋近于0,出现梯度消失。其实Tanh可通过sigmod经过平移变换得到。 T a n h ( x ) = s i g m o i d ( 2 x ) − 1 Tanh(x)=sigmoid(2x)-1 Tanh(x)=sigmoid(2x)1
  • RELU = m a x { z , 0 } =max\{z,0\} =max{z,0}:如果仔细观察,可以发现sigmod、Tanh不出现梯度消失的地方值集合近似于一条线。故我们可以考虑使用线性来作为激活函数,但是完全线性的激活函数又没有用,故把0的左边定义为0,此时不再是线性。
    • 优点:只需要做一个布尔运算,降低了运算复杂度;梯度很为1,有效解决梯度消失;0的左侧取0,认为造成了稀疏性。
    • 缺点:0的左侧取0,导致神经元的梯度为0,且之后该神经元的梯度永远为0.也即不更新数据,神经元死亡了。如果刚开始时,预设的学习步长较大,则很可能相当多的激活值小于0,这时大面积神经元死亡,很可能导致学习失败。
  • leaky RELU:为了解决RELU的缺陷,我们可以使用 leaky RELU,使0左侧的导数不为0. f ( z ) = { z z ≥ 0 1 a z &lt; 0 f(z)=\begin{cases} z &amp; z \geq 0 \\ 1 &amp; az&lt;0 \end{cases} f(z)={z1z0az<0一般a取一个较小的值(a的值如果过大,可能会导致梯度爆炸),可以实现一定的单侧抑制、保留部分梯度,能避解决梯度消失。但是增加了参数,增加了人工调参的难度。可以把a当作一个参数来学习。

模型的学习方法:上面说过,神经网络类似于bagging和boosting的集成,故可以像梯度提升一样来学习。但是层数多了后,这样做运算复杂度大。通常使用反向传播的方式来优化目标函数。
反向传播就当作一个复合函数的链式求导算了,哈哈哈(实际上和普通的链式求导还是有一定的区别,这里是矩阵的求导,矩阵求导没有链式法则,可以通过微分的定义来一步一步的推导)
平方损失函数:适合输出为连续且最后一层不为sigmod、softmax的神经网络。
交叉熵损失函数:适合分类场景。
如果是从传统机器学习的经验来看,这是肯定的,平方适合回归、交叉熵适合分类。但是为什么在平方损失的适合场景下加了一条最后一层不为sigmod、softmax呢?输出层的导数为 ( a − y ) f ′ ( z ) (a-y)f&#x27;(z) (ay)f(z)。当z较大时,容易使梯度过小,学习慢。但是交叉熵的导数为 a k − 1 a_k-1 ak1,是线性的,z大小与梯度大小无关,不影响学习速度。

资源下载链接为: https://pan.quark.cn/s/00cceecb854d 这个项目名为“mnist-nnet-hls-zynq7020-fpga prj”,是一个与机器学习相关的工程,专注于利用高级综合(HLS)技术将针对MNIST数据集设计的神经网络(nnet)实现在Zynq 7020 FPGA平台上,以加速图像识别任务。项目提供的压缩包包含所有相关代码文件,如C/C++源码、HLS接口定义、Vivado HLS项目文件、硬件描述语言代码(Verilog或VHDL)及配置文件等,用户可通过这些代码理解、实现或修改设计流程。 项目标签“mnist-nnet-hls-z”进一步明确了其关注点:MNIST数据集、HLS技术以及Zynq目标平台。MNIST是用于手写数字识别的知名训练数据集;HLS可将高级编程语言转化为硬件描述语言;Zynq 7020是Xilinx的SoC FPGA,融合了ARM处理器与可编程逻辑。文件名中提到的“vivado”指的是Xilinx的Vivado设计套件,它是一个用于FPGA设计、实现、仿真和调试的集成开发环境,其中的Vivado HLS工具能够将C、C++或SystemC编写的算法自动转换为硬件描述语言代码。 项目可能的实施步骤如下:首先,对MNIST数据集进行预处理,如归一化、降维等,使其适配神经网络模型输入;其次,构建适用于手写数字识别的神经网络模型,例如卷积神经网络(CNN)或全连接网络(FCN);接着,运用HLS工具将神经网络模型转化为硬件描述,并优化性能与资源利用率;然后,在Vivado环境中,将生成的硬件描述代码映射到Zynq 7020的FPGA部分,进行时序分析与综合优化;此外,由于Zynq是SoC,包含处理器系统,还需编写控制软件来管理与调度FPGA上的硬件加速器,可能涉及OpenCV、OpenCL等库的使用;之后,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值