稀疏表示学习

1.提出问题:什么是稀疏表示
假设我们用一个M*N的矩阵表示数据集X,每一行代表一个样本,每一列代表样本的一个属性,一般而言,该矩阵是稠密的,即大多数元素不为0。
稀疏表示的含义是,寻找一个系数矩阵A(K*N)以及一个字典矩阵B(M*K),使得B*A尽可能的还原X,且A尽可能的稀疏。A便是X的稀疏表示。
书上原文为(将一个大矩阵变成两个小矩阵,而达到压缩

为普通稠密表达的样本找到合适的字典,将样本转化为合适的稀疏表达形式,从而使学习任务得以简化,模型复杂度得以降低,通常称为‘字典学习’(dictionary learning),亦称‘稀疏编码’(sparse coding)”块内容

表达为优化问题的话,字典学习的最简单形式为:
字典学习表达式
其中xi为第i个样本,B为字典矩阵,aphai为xi的稀疏表示,lambda为大于0参数。
上式中第一个累加项说明了字典学习的第一个目标是字典矩阵与稀疏表示的线性组合尽可能的还原样本;第二个累加项说明了alphai应该尽可能的稀疏。之所以用L1范式是因为L1范式正则化更容易获得稀疏解。具体原因参看该书11.4章或移步机器学习中的范数规则化之(一)L0、L1与L2范数。字典学习便是学习出满足上述最优化问题的字典B以及样本的稀疏表示A(A{alpha1,alpha2,…,alphai})。L1正则化常用于稀疏,可以获得稀疏解。如下图表示,L1正则化交点在轴上,所得的解一般只是在某个轴上有实数,另外的轴为0,从而最终得到稀疏解。


2.字典学习求解 (学习字典、稀疏表示)
求解上述最优化问题的总体策略是,对字典B以及样本稀疏表示alphai交替迭代优化。即先初始化字典B,

1.固定字典B对alphai进行优化。2.固定A对字典B进行优化。重复上述两步,求得最终B以及X的稀疏表示A。
其中第一步可采用与LASSO正则化相似的方法(如Proximal Gradient Desent法)进行求解,第二步可采用KSVD方法进行求解。具体步骤参看该书11.5章节内容

参考:

http://blog.youkuaiyun.com/sam92/article/details/50731607

http://blog.youkuaiyun.com/zouxy09/article/details/24971995/

### 稀疏模型与稠密模型的区别 在机器学习和深度学习领域,稀疏模型和稠密模型有着显著的不同之处。稀疏模型通常指的是参数矩阵中大部分元素为零的模型结构,在这种情况下,只有少量非零权重参与计算过程[^1]。而稠密模型则意味着几乎所有的参数都参与到每一次运算之中,即参数矩阵中的大多数甚至全部元素都是非零值。 对于万亿规模级别的稀松大模型而言,由于采用了特殊的架构设计使得整体网络内部存在大量的连接缺失现象,从而形成了一种自然形成的稀疏性;相反地,千亿级别以上的稠密大模型则是指那些拥有极其庞大数量级节点间相互关联紧密无间隙的状态下的神经元组合形式。 ### 应用场景分析 #### 稀疏模型的应用场景 - **大规模推荐系统**:当面对海量用户行为数据时,采用稀疏表达可以有效降低存储成本并提高检索效率; - **自然语言处理任务**:例如词袋模型(Bag of Words),它会将文档映射成高维空间里的向量表示法,其中绝大多数维度上的取值均为0,因此非常适合利用稀疏特性来加速训练速度以及减少内存占用情况; - **图像识别领域内的某些特定子集问题**:比如目标检测或者语义分割等需要关注局部区域特征的任务类型也可以借助于稀疏编码机制实现更高效的解决方案[^3]。 #### 稠密模型的应用场景 - **语音合成与转换**:这类任务往往涉及到连续音频信号的时间序列建模,稠密连接有助于捕捉长时间依赖性和细微变化规律; - **高级视觉理解能力开发**:如物体跟踪、姿态估计等方面的研究工作可能更加倾向于使用密集型卷积层堆叠而成的大规模预训练框架来进行端到端的学习; - **多模态信息融合平台搭建**:为了综合考虑来自不同源的数据流之间的交互作用关系,构建起具备强大表征力的联合分布概率密度函数,则不可避免地要引入大量全连接组件作为基础构件之一[^2]。 ```python import numpy as np def sparse_model_example(): """创建一个简单的稀疏矩阵""" from scipy.sparse import csr_matrix row = np.array([0, 0, 1, 2]) col = np.array([0, 2, 2, 0]) data = np.array([1, 2, 3, 4]) matrix_sparse = csr_matrix((data, (row, col)), shape=(3, 3)) return matrix_sparse.toarray() print(sparse_model_example()) ``` ```python from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense def dense_model_example(input_dim=784, output_units=10): model = Sequential() model.add(Dense(512, activation='relu', input_shape=(input_dim,))) model.add(Dense(output_units, activation='softmax')) return model.summary() dense_model_example() ```
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值