深度学习笔记(4)

本文探讨了深度学习中神经网络的应用,特别是分类问题中隐藏层结构的影响、one-hot编码的作用、Softmax函数的特性、深度神经网络的定义及其面临的挑战,如梯度消失、过拟合和计算量增加等问题,以及解决这些问题的方法。
部署运行你感兴趣的模型镜像

越来越靠近深度学习了~

1、在将神经网络应用都分类问题时,所分的类别只影响输出层节点的个数,而不影响隐藏层节点的个数,同时当前没有一个隐藏层结构的标准。

2、为了计算误差,将类别名称转换映射成一个类别向量,只在相应的节点上生成“1”,这种表达技术称为“one-hot编码(独热编码)”或者“1-of-N编码”。

3、一般而言,多分类器大都采用Softmax函数作为输出节点的激活函数,Softmax函数保持输出值之和为1,并且将单个输出值的范围限制在0~1之间,其中y_{i}=\varphi _{ \left (v_{i} \right )}=\frac{e^{v_{i}}}{e^{v_{1}}+e^{v_{2}}+...+e^{v_{m}}}

4、深度学习是一种利用深度神经网络框架的机器学习技术。深度神经网络是一种包含俩层以上隐藏层的多层神经网络。随着神经网络的层数增多,神经网络无法得到恰当的训练,其性能将会越差。

5、在深度神经网络训练算法中,反向传播面临着梯度消失、过拟合以及计算量增加是常见的难题。

6、解决梯度消失问题的典型方法是将整流线性单元(Rectified Linear Unit,ReLU)函数作为激活函数,其中ReLU函数\varphi \left ( x \right )=\left\{\begin{matrix}x, x> 0 & \\ 0, x\leq 0 & \end{matrix}\right.=max\left ( 0,x \right ).需要注意的是,由于ReLU函数对初始权重比较敏感,故偶尔会因得不到恰当的训练而产生错误的输出,这在Sigmoid激活函数上是绝对不会发生的。

7、解决过拟合问题的代表性方案是节点丢弃(dropout),神经网络只训练那些随机挑选的节点,而不是全部节点,即以某一概率随机选择节点,当将其输出设置为0时,这些节点的活动就被暂停了。该算法在持续转换节点和权重,有效防止了过拟合。另外,给代价函数增加能够提供权重大小的正则项也能够防止过拟合,因为该方法能够尽可能地简化神经网络的结构。此外,使用大量的训练数据也非常有帮助,因为这样能够降低特定数据的潜在偏差。参考https://www.cnblogs.com/eilearn/p/9203186.html

您可能感兴趣的与本文相关的镜像

Langchain-Chatchat

Langchain-Chatchat

AI应用
Langchain

Langchain-Chatchat 是一个基于 ChatGLM 等大语言模型和 Langchain 应用框架实现的开源项目,旨在构建一个可以离线部署的本地知识库问答系统。它通过检索增强生成 (RAG) 的方法,让用户能够以自然语言与本地文件、数据库或搜索引擎进行交互,并支持多种大模型和向量数据库的集成,以及提供 WebUI 和 API 服务

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值