优化功能链接神经网络训练的创新学习方案及RFID数据清洗策略
功能链接神经网络(FLNN)学习方案
在神经网络领域,功能链接神经网络(FLNN)是一种重要的网络结构。以2个输入节点的FLNN为例,其结构具有独特特点。一阶输入包含原始输入(x_1)和(x_2),为了赋予网络非线性映射能力,通过基于乘积单元扩展输入,实现高阶输入增强,如二阶输入增强的乘积单元为(x_1x_2)。
以往在训练FLNN时,最常用的学习算法是BP学习算法。在这个过程中,增强输入节点和输出节点之间的权重值是随机初始化的。输出节点(\hat{y})对应输入模式(x)和输入模式的数量(n)。对于单输出节点的张量表示,增强输入可记为(n + n(n - 1)/2)。设张量(x)的增强输入节点表示为(\mathbf{x} = [x_1, x_2, \ldots, x_n, x_1x_2, \ldots, x_{n - 1}x_n]),输出节点的激活函数(f)采用逻辑Sigmoid激活函数:
[
f(\mathbf{net}) = \frac{1}{1 + e^{-\mathbf{net}}}
]
其中(\mathbf{net} = \mathbf{w}\mathbf{x} + b) 。FLNN的输出值通过(\hat{y} = f(\mathbf{net}))获得,这里(\hat{y})是输出,(f)表示输出节点激活函数,(b)是偏置,(\mathbf{w}\mathbf{x})是(\mathbf{w})和(\mathbf{x})的内积。目标输出和实际输出之间的平方误差(E)将被最小化:
[
E = \frac{1}{2} \sum_{i = 1}^{n} (y_i - \hat
FLNN训练与RFID数据清洗策略
超级会员免费看
订阅专栏 解锁全文
24

被折叠的 条评论
为什么被折叠?



