深度学习UFLDL(一)

本文介绍稀疏自编码这一无监督学习算法的基本原理,包括其目标、损失函数及实现过程。稀疏自编码旨在通过少量隐含层单元表示输入特征,降低数据维度并保持关键信息。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基础:机器学习
稀疏自编码:
神经网络简介
反向传导算法
梯度检验和高级优化
自编码器与稀疏性
练习

  1. 产生训练集
  2. 稀疏自编码目标(损失函数)
  3. 梯度检验
  4. 训练稀疏自编码器
  5. 可视化结果

    所谓稀疏自编码就是一种无监督学习算法,使用BP,将目标值设为输入值
    目标:hW,b(X)≈x
    稀疏性:最少的隐含层单位来表示输入层特征,也就是让所有隐含层单位平均激活值接近0。
    损失函数(代价函数):
    这里写图片描述
    稀疏自编码器的目标就是用尽可能少的隐含层表示输入的特征,将数据维度降低。

矢量化编程加快速度

主成分分析与白化

Softmax回归

自我学习与无监督特征学习

处理大型图像:卷积特征提取、池化

自编码线性解码器

使用分类深度网络

RBM、DBN等网络

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值