20、变分自编码器与生成对抗网络:原理、应用与实践

变分自编码器与生成对抗网络:原理、应用与实践

变分自编码器(Variational Autoencoders)

变分自编码器概述

变分自编码器(VAE)是一种特殊的自编码器,它在学习编码表示时添加了额外的约束。具体来说,它学习输入数据的潜在变量模型,通过学习数据的概率分布参数,而不是让神经网络学习任意函数。从这个分布中采样点,就可以生成新的输入数据样本,因此变分自编码器被认为是生成模型。

在许多实际应用中,我们处理的数据维度可能很高,但实际需要处理的底层数据维度可能较低。因此,很多机器学习模型都涉及某种形式的降维,变分自编码器在深度学习中就承担了降维的任务。

普通自编码器回顾

普通自编码器至少使用编码器层和解码器层。编码器层将输入数据特征压缩为潜在表示,解码器层将潜在表示扩展以生成输出,目标是训练模型使输出尽可能接近输入。输入与输出之间的任何差异都可能表示异常行为,即异常检测。输入数据被压缩成维度小于输入的瓶颈表示,然后从瓶颈表示中重建输入。

变分自编码器与普通自编码器的区别

与普通自编码器将输入映射到固定向量不同,变分自编码器将输入映射到一个分布。瓶颈向量被均值向量和标准差向量取代,通过对分布进行采样得到潜在向量作为实际的瓶颈。

变分自编码器的工作原理

  1. 编码器网络 :将输入样本 x 转换为潜在空间中的两个参数 z_mean 和 z_log_sigma。
  2. 采样 :从潜在正态分布中随机采样类似的点 z,公式为 z = z_mean +
根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值