- 博客(13)
- 资源 (4)
- 收藏
- 关注
原创 GAN公式原理推到
上一篇论文中介绍了GAN[1]的原理,这篇继续介绍下它的公式推导的具体的过程,如果需要原理介绍的,可以回到上一篇关于GAN的文章的介绍中。(http://blog.youkuaiyun.com/susanzhang1231/article/details/73604302) 这张图给出了GAN训练的过程:首先固定G中的参数,训练一个可以用于分类的D,然后固定D的参数,调整G的参数,使其产生的图片送入当前的D中
2017-08-08 14:38:33
9591
5
原创 多层感知机(multi-layer perceptron)实现手写体分类(TensorFlow)
#multi_layer Perceptron by ffzhangimport numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_dataimport timeimport osos.environ["CUDA_VISIBLE_DEVICES"]='2'mni
2017-08-07 15:07:59
1311
原创 代码,逻辑回归(logistic_regression)实现mnist分类(TensorFlow实现)
#logistic_regression by ffzhangimport osos.environ['TF_CPP_MIN_LOG_LEVEL']='2'os.environ["CUDA_VISIBLE_DEVICES"]='2'import numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials.mnis
2017-08-07 12:04:39
1264
原创 线性回归(linear_regression),多项式回归(polynomial regression)(Tensorflow实现)
#回归import numpy as npimport tensorflow as tfimport matplotlib.pyplot as pltn_observations=100xs=np.linspace(-3,3,n_observations)ys=np.sin(xs)+np.random.uniform(-0.5,0.5,n_observations)plt.scatte
2017-08-07 11:58:36
4637
转载 卷积神经网络CNN经典模型Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning
本篇文章转载自:Bin的专栏blog.youkuaiyun.com/xbinworld。 关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需。如果读者是初接触CNN,建议可以先看一看“Deep Learning(深度学习)学习笔记整理系列”中关于CNN的介绍[1],是介绍我们常说的Lenet为例,相信会对初学者有帮助。
2017-07-10 14:24:24
814
原创 均值,白化,Siamese网络,双线性插值
减去均值,白化:在训练一个网络的时候我们经常会做对输入减去均值,以及白化等操作,其目的均是为了加快训练速度。关于原因一般我们输入的图像数据是高度相关的,假设其分布如下图a所示,由于初始化模型参数时,一般参数时0均值的,因此开始的拟合y=Wx+b基本是过原点的,如图b红色线所示,因此网络需要经过多次学习才能够达到如紫色实现的拟合,因此训练过程中模型的收敛速度慢。如果我们对输入的数据先做减均值操作,便
2017-07-09 17:32:32
863
原创 学习笔记:生成对抗网络(Generative Adversarial Nets)(附代码)
同时训练两个模型:(1)生成模型G,不断捕捉训练库里真是图片的概率分布,将输入的随机噪声转变成新的样本(即假数据),使其像是一个真的图片。(2)判别模型D,用来估计一个样本来自训练数据的概率,即它可以同时观察真是和假造的数据,并判断这个数据的真假(这个数据是不是从数据集中获取的图片)。在训练的过程中让两个网络互相竞争。刚开始的时候这两个模型均未经过训练,然后生成模型产生一张假数据欺骗判别模型,判别模
2017-06-22 14:52:56
5999
原创 域适应学习笔记:visual Domain Adaptation
在迁移学习中, 当源域和目标的数据分布不同 ,但两个任务相同时,这种 特殊 的迁移学习 叫做域适应 (Domain Adaptation,DA )。因为其任务相同,所以根据上篇博客中的内容可知,域适应属于一种直推式迁移学习。它在2006年由Daumeaume等人首次提出[1]。 1.域适应的一些基本公式 源域由充足的带标签数据组成,目标域由不充足的带标签数据或者充足的无标签数据组成。且目标域
2017-06-15 10:04:31
6728
原创 迁移学习基础
读A survey on Transfer Learning后的一些想法,仅供参考,若有错误还希望与大家多多交流。1.什么时候需要进行迁移学习:目前大多数机器学习算法均是假设训练数据以及测试数据的特征分布相同。然而这在现实世界中却时常不可行。例如我们我们要对一个任务进行分类,但是此任务中数据不充足(在迁移学习中也被称为目标域),然而却又大量的相关的训练数据(在迁移学习中也被称为源域),但是此训练数据
2017-06-14 16:50:23
39200
原创 集成学习 ensemble learning
通过学习周志华老师的机器学习一书,对集成学习做一些笔记。集成学习(ensemble learning)是通过构建并结合多个学习器来完成学习任务的,因此有写文章中也称其为多分类器系统(multi-classifier system)或者是委员会学习(committee-based learning)。下图是集成学习的一般结构,将一组“个体学习器”(individual learner)用一些
2016-11-22 10:39:45
4139
原创 简析PCA
PCA 具有两个功能:(1)数据降维(2)数据可视化、本篇文章主要是简述PCA在图像方面的可视化,下面将结合代码来讲述一下整个PCA的过程:1.首先获得一些关于自然图像的data,例如需要用在Auto-encoder,或者CNN中的最简单的数据格式,本文我是用到了一个64*2400000,数据不算大只是用来测试。其中前边的64=8*8指的是你从一张图像上取的patch的大小(8),
2016-08-12 21:15:47
1457
转载 范数理解(0范数,1范数,2范数)
刚刚结束,若有错误请多多指教。转载自http://www.zhihu.com/question/20473040/answer/102907063可以从函数、几何与矩阵的角度去理解范数。我们都知道,函数与几何图形往往是有对应关系的,这个很好想象,特别是在三维以下的空间内,函数是几何图像的数学概括,而几何图像是函数的高度形象化,比如一个函数对应几何空间上若干点组成的图形。但当
2016-08-05 10:54:35
193100
3
多层感知机(multi-layer perceptron)实现手写体分类(TensorFlow)
2017-08-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人