统计学习中的卷积、循环神经网络与时间序列分析
在统计学习领域,卷积神经网络(CNN)、循环神经网络(RNN)以及时间序列分析都是非常重要的组成部分。下面将详细介绍它们的原理、应用以及相关的技术细节。
卷积神经网络(CNN)中的池化操作与彩色图像处理
在CNN中,池化操作是一个重要的步骤。它通常在小的不相交子数组上进行,例如大小为 $q \times q$ 的子数组。以 $q = 2$ 的最大池化为例,会有如下计算:
$r_{11} = \max{y_{11}, y_{12}, y_{21}, y_{22}}$,$r_{12} = \max{y_{13}, y_{14}, y_{23}, y_{24}}$ 等等。
这样的操作会得到更小尺寸的图像 $y^{(h)} = (r_{k\ell}^{(h)})$,其尺寸为 $\frac{d - p}{2} \times \frac{d’ - p}{2}$。
当进入全连接网络的最后一步时,会忽略最后池化层图像的空间结构,将数组按常规方式向量化,即把所有行或列依次排列,生成的长向量作为后续步骤的输入。
对于彩色图像,会将其拆分为各自的颜色通道,分别通过CNN进行处理。以RGB图像为例,会得到三个数组,分别代表红、绿、蓝对像素亮度的贡献。在参数数量最多增加到三倍的情况下,算法的工作方式与灰度图像类似。
循环神经网络(RNN)的原理与应用
RNN由对同一简单神经网络的一系列应用组成,输入是来自序列 $X_1, \ldots, X_D$ 的变化输入向量。其递归性体现在不仅使用最近的输入 $X_{\ell}$,还使用网络上一次激活时隐藏神经元的状态 $S^{(
超级会员免费看
订阅专栏 解锁全文
2033

被折叠的 条评论
为什么被折叠?



