Sparse Coding 稀疏编码

稀疏编码是无监督学习的一种,通过寻找“超完备”基向量来高效表示样本数据,以稀疏性作为评判标准。在神经网络中,它模拟视觉系统,应用于图像处理、语音信号处理、特征提取等领域,展现强大的数据表示和处理能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

稀疏编码为无监督学习,用来寻找一组“超完备”基向量来更高效地表示样本数据,将输入向量表示为这些基向量的线性组合。编码储存能力大,有联想记忆能力。

1. 原理

假设有一组基向量 ϕ i \phi_{i} ϕi,将输入向量 X X X表示为这些基向量的线性组合:
x = ∑ i = 1 k a i ϕ i \mathbf{x}=\sum_{i=1}^{k} a_{i} \phi_{i} x=i=1kaiϕi
相对于主成分分析(PCA)找到一组“完备”基向量,我们使用稀疏编码能够找到一组“超完备”基向量来表示输入向量 x ∈ R n \mathbf{x} \in \mathbb{R}^{n} xRn k > n k>n k>n)。
超完备基,能够更有效地找出隐含在输入数据内部的结构与模式。其系数 a i a_{i} ai,不再由输入向量 X X X单独确定,在稀疏编码中,我们用“稀疏性”为评判标准,来解决因超完备导致的退化问题。

“稀疏性”:只有很少的几个非零元素或只有很少的几个远大于零的元素
系数 a i a_{i} ai稀疏:对于一组输入向量,要尽可能的几个系数远大于零

使用稀疏性的分量表示输入数据:绝大多数的感观数据(自然图像)可以被表示成少量基本元素的叠加(面或线)

m m m个输入向量的稀疏编码代价函数定义为:
minimize ⁡ a i i j , ϕ i ∑ j = 1 m ∥ x ( j ) − ∑ i = 1 k a i ( j ) ϕ i ∥ 2 + λ ∑ i = 1 k S ( a i ( j ) ) \operatorname{minimize}_{a_{i}^{i j}, \phi_{i}} \sum_{j=1}^{m}\left\|\mathbf{x}^{(j)}-\sum_{i=1}^{

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鸭鸭鸭鸭鸭鸭

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值