32、深度学习中的卷积神经网络与深度信念网络

深度学习中的卷积神经网络与深度信念网络

1. 卷积神经网络(CNN)

1.1 卷积层原理

在图像中,局部值形成的统计信息通常在位置上具有不变性,因此使用共享相同权重的内核可以检测图像中所有局部区域的模式,不同的内核能够从图像中提取不同类型的模式。卷积操作后,通常会应用非线性激活函数(如 ReLu、tanh、sigmoid 等),这些激活值存储在激活图中,并传递到网络的下一层。

1.2 池化层

池化层通常插入在卷积层和后续层之间,其目的是通过指定的池化方法减少输入的维度,同时尽可能保留信息。池化层还能引入空间不变性,有助于提高模型的泛化能力。

池化层使用步长、零填充和池化窗口大小作为超参数,以与卷积层中内核相同的方式扫描整个输入。例如,使用步长为 2、窗口大小为 2 和零填充为 0 进行池化,将使输入维度的大小减半。

常见的池化方法包括平均池化、最小池化以及一些高级池化方法,如分数最大池化和随机池化。最常用的是最大池化,它能有效捕捉不变性,公式为 (A_{i,j,k} = max(R_{i - n:i + n,j - n:j + n,k})),其中 (A_{i,j,k}) 是第 (k) 个激活图中以索引 (i, j) 为中心、大小为 (n × n) 的矩阵 (R) 的最大激活值。

1.3 全连接层

全连接层是前馈神经网络(FFNN)中的基本隐藏层单元。在传统的 CNN 架构中,通常在倒数第二层和输出层之间添加全连接层,以进一步建模输入特征的非线性关系。然而,最近这种做法受到了质疑,因为它会引入大量参数,可能导致过拟合。因此,越来越多的研究人员开始构建不包含全连接层的 CN

根据原作 https://pan.quark.cn/s/0ed355622f0f 的源码改编 野火IM解决方案 野火IM是专业级即时通讯和实时音视频整体解决方案,由北京野火无限网络科技有限公司维护和支持。 主要特性有:私有部署安全可靠,性能强大,功能齐全,全平台支持,开源率高,部署运维简单,二次开发友好,方便第三方系统对接或者嵌入现有系统中。 详细情况请参考在线文档。 主要包括一下项目: 野火IM Vue Electron Demo,演示如何将野火IM的能力集成到Vue Electron项目。 前置说明 本项目所使用的是需要付费的,价格请参考费用详情 支持试用,具体请看试用说明 本项目默认只能连接到官方服务,购买或申请试用之后,替换,即可连到自行部署的服务 分支说明 :基于开发,是未来的开发重心 :基于开发,进入维护模式,不再开发新功能,鉴于已经终止支持且不再维护,建议客户升级到版本 环境依赖 mac系统 最新版本的Xcode nodejs v18.19.0 npm v10.2.3 python 2.7.x git npm install -g node-gyp@8.3.0 windows系统 nodejs v18.19.0 python 2.7.x git npm 6.14.15 npm install --global --vs2019 --production windows-build-tools 本步安装windows开发环境的安装内容较多,如果网络情况不好可能需要等较长时间,选择早上网络较好时安装是个好的选择 或参考手动安装 windows-build-tools进行安装 npm install -g node-gyp@8.3.0 linux系统 nodej...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值