
AI
文章平均质量分 84
机器学习,深度学习和视觉方面的知识论文
wanttifa
这个作者很懒,什么都没留下…
展开
-
生成对抗网络(GAN)的理论与应用完整入门介绍
本文包含以下内容:1.为什么生成模型值得研究2.生成模型的分类3.GAN相对于其他生成模型相比有什么优势4.GAN基本模型5.改进的GANs6.GAN有哪些应用7.GAN的前沿研究一、为什么生成模型值得研究主要基于以下几个原因:1. 从生成模型中训练和采样数据能很好的测试我们表示和操作高维概率分布的能力。而这种能力在数学和工程方面都有广泛的应用。...转载 2018-12-21 11:37:39 · 1685 阅读 · 0 评论 -
Generative Adversarial Nets(译)
仅供参考,如有翻译不到位的地方敬请指出。论文地址:Generative Adversarial Nets论文翻译:XlyPb(http://blog.youkuaiyun.com/wspba/article/details/54577236)摘要我们提出了一个通过对抗过程估计生成模型的新框架,在新框架中我们同时训练两个模型:一个用来捕获数据分布的生成模型G,和一个用来估计样本来自训练数据而不是G的概率...翻译 2019-01-04 19:26:47 · 630 阅读 · 0 评论 -
十个生成模型(GANs)的最佳案例和原理 | 代码+论文
生成对抗网络(GANs)是一种能“教会”计算机胜任人类工作的有趣方法。一个好的对手能让你成长更快,而GANs背后就是“从竞争中学习”的思路。GANs最先是由蒙特利尔大学的Ian Goodfellow提出,已在图像生成和风格迁移等领域获得了巨大的成功,充分展示了“无监督学习”技术的潜力。GANs是如何工作的?△GAN结构示意图一个GAN中包含两个相互竞争的神经网络模型。一个网络称...转载 2018-12-21 11:42:11 · 1005 阅读 · 1 评论 -
一文读懂生成对抗网络(GANs)
前言GAN网络是近两年深度学习领域的新秀,火的不行,本文旨在浅显理解传统GAN,分享学习心得。现有GAN网络大多数代码实现使用Python、torch等语言,这里,后面用matlab搭建一个简单的GAN网络,便于理解GAN原理。GAN的鼻祖之作是2014年NIPS一篇文章:Generative Adversarial Net(https://arxiv.org/abs/1406...转载 2019-03-07 15:38:23 · 927 阅读 · 0 评论 -
值得精读的GAN论文推荐
前言本文主要推荐一些生成对抗网络(GAN,generative adversarial networks)相关的值得精读的论文,主要涉及GAN的优化,图像翻译,视频预测三个领域,可以作为GAN的学习顺序进行阅读。GAN的优化想要使用GAN完成期望的学习任务,精致的网络设计和合适的目标函数必不可少,二者是实现较高performance的关键因素。在损失函数的优化论文方面,效果比较突出且使用较...转载 2018-12-17 17:03:52 · 306 阅读 · 0 评论 -
【Ian Goodfellow 强推】GAN 进展跟踪 10 大论文(附下载)
1. Progressive Growing of GANs for Improved Quality, Stability, and VariationTero Karras, Timo Aila, Samuli Laine & Jaakko Lehtinen (NVIDIA and Aalto University)来自NVIDIA Research的GAN论文,提出以一...转载 2018-12-26 11:11:20 · 466 阅读 · 0 评论 -
对生成对抗网络GANs原理、实现过程、应用场景的理解(附代码),另附:深度学习大神文章列表
生成对抗网络是14年Goodfellow Ian在论文Generative Adversarial Nets中提出来的。原文地址:http://blog.youkuaiyun.com/sxf1061926959/article/details/54630462生成模型和判别模型理解对抗网络,首先要了解生成模型和判别模型。判别模型比较好理解,就像分类一样,有一个判别界限,通过这个判别界限去区分...转载 2018-12-03 11:07:21 · 567 阅读 · 0 评论 -
不可错过的 GAN 资源:教程、视频、代码实现、89 篇论文下载
NIP 2016 对抗训练 Workshop 【网页】https://sites.google.com/site/nips2016adversarial/ 【博客】http://www.inference.vc/my-summary-of-adversarial-training-nips-workshop/ 教程 & 博客 如何训练GAN? 让GAN...转载 2018-12-21 11:32:37 · 1463 阅读 · 1 评论 -
GAN生成的结果多样性不足怎么办?那就再添一个鉴别器!
AI科技评论按:近期,澳大利亚迪肯大学图像识别和数据分析中心发表了一篇新的论文,由Tu Dinh Nguyen, Trung Le, Hung Vu, Dinh Phung编写,该论文就生成对抗网络(GAN)的模式崩溃问题进行了讨论并给出了一种新的有效的解决方案 D2GAN,论文译稿由AI 科技评论编辑。原文链接:https://arxiv.org/abs/1709.03831这篇文章介绍...转载 2018-12-21 11:36:26 · 4857 阅读 · 0 评论 -
DCGAN(Deep convolution generative adversarial network)译文
前言:如何把CNN与GAN结合?DCGAN是这方面最好的尝试之一,DCGAN的原理和GAN是一样的,这里就不在赘述。它只是把经典GAN中的G和D换成了两个卷积神经网络(CNN)。但是,并不是直接替换就可以了, DCGAN 对卷积神经网络的结构做了一些改变,以提高样本的质量和收敛的速度。具体有哪些改变,将在本文中看到。摘要近年来,深度卷积神经网络(CNN)的监督学习在计算机视觉应用上发挥巨大...翻译 2019-01-04 19:52:13 · 1026 阅读 · 1 评论 -
深度 | 生成对抗网络初学入门:一文读懂GAN的基本原理(附资源)
生成对抗网络是现在人工智能领域的当红技术之一。近日,Sigmoidal.io 的博客发表了一篇入门级介绍文章,对 GAN 的原理进行了解释说明。另外,在该文章的最后还附带了一些能帮助初学者自己上手开发实验的资源(包含演讲、教程、代码和论文),其中部分资源机器之心也曾有过报道或解读,读者可访问对应链接查阅。你怎么教一台从未见过人脸的机器学会绘出人脸?计算机可以存储拍字节级的照片,但它却不知道...转载 2018-12-26 10:38:32 · 770 阅读 · 0 评论 -
Wasserstein GAN
Wasserstein GAN文章目录Wasserstein GAN1. 简介2. 不同的距离3.Wasserstein GAN4.实验结果4.1实验程序4.2有意义的损失度量4.3改善稳定性5.相关工作6.结论1. 简介本文所关注的问题是无监督学习问题。最主要的是,学习概率分布意味着什么?经典的答案是学习概率密度。这通常是通过定义一个参数密度族(Pθ)θ∈Rd(P_\theta)_{\th...翻译 2019-06-19 16:15:30 · 468 阅读 · 0 评论 -
机器学习算法知识总结
BAT机器学习面试系列1.请简要介绍下SVM。SVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。扩展:支持向量机学习方法包括构建由简至繁的模型:线性可分支持向量机、线性支持向量机及非线性支持向量机。当训练数据线性可分时,通过硬间隔最大化,学习一个线性的分类器,即线性...转载 2018-11-27 15:03:15 · 3435 阅读 · 0 评论 -
谷歌大神带你十分钟看懂TensorFlow
TensorFlow 是世界上最受欢迎的开源机器学习框架,它具有快速、灵活并适合产品级大规模应用等特点,让每个开发者和研究者都能方便地使用人工智能来解决多样化的挑战。今天DT君给大家推荐的这个视频(及文字实录),是2017年谷歌开发者大会欧洲站上,谷歌研究院工程师Andrew Gasparovic所做演讲。他用深入浅出、妙趣横生的方式,给大家分享了TensorFlow的发展情况与最新成果。...转载 2018-12-27 15:15:40 · 334 阅读 · 0 评论 -
数据集
大数据https://delicious.com/pskomoroch/datasethttp://stackoverflow.com/questions/10843892/download-large-data-for-hadoophttp://konect.uni-koblenz.de/搜狗实验室http://www.sogou.com/labs/resources.html?v=1...转载 2019-03-07 16:23:26 · 1324 阅读 · 0 评论 -
【机器学习】一文读懂正则化与LASSO回归,Ridge回归
1.过拟合当样本特征很多,样本数相对较少时,模型容易陷入过拟合。为了缓解过拟合问题,有两种方法: 方法一:减少特征数量(人工选择重要特征来保留,会丢弃部分信息)。 方法二:正则化(减少特征参数的数量级)。2.正则化(Regularization)正则化是结构风险(损失函数+正则化项)最小化策略的体现,是在经验风险(平均损失函数)上加一个正则化项。正则化的...转载 2019-03-05 17:05:37 · 498 阅读 · 0 评论 -
sklearn.model_selection.train_test_split
sklearn.model_selectin.train_test_split 在机器学习中,我们通常将原始数据按照比例分割为“测试集”和“训练集”,通常使用train_test_split模块来分割数据。在以前,是导入sklearn.cross_validation.train_test_split,但是现在cross_validation已经弃用,现在改为从 sklearn.model...原创 2018-09-12 11:36:06 · 307 阅读 · 0 评论 -
一文读懂机器学习(转)
一、机器学习的发展背景:人工智能人工智能(Artificial Intelligence,缩写为AI)是对人的意识、思维过程进行模拟的一门新学科。如今,人工智能从虚无缥缈的科学幻想变成了现实。计算机科学家们在人工智能的技术核心--机器学习(Machine Learning)和深度学习(Deep Learning)领域上已经取得重大的突破,机器被赋予强大的认知和预测能力。回顾历史,在1997年,...转载 2018-11-27 15:09:00 · 3068 阅读 · 0 评论 -
机器学习算法知识总结
BAT机器学习面试系列1.请简要介绍下SVM。SVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。扩展:支持向量机学习方法包括构建由简至繁的模型:线性可分支持向量机、线性支持向量机及非线性支持向量机。当训练数据线性可分时,通过硬间隔最大化,学习一个线性的分类器,即线性可分支持...转载 2018-11-29 18:49:51 · 2549 阅读 · 0 评论 -
直观解读KL散度的数学概念
KL 散度是一种衡量两个概率分布的匹配程度的指标,两个分布差异越大,KL散度越大。定义如下:DKL(p∣∣q)=∑i=1Np(xi)logp(xi)q(xi)D_{KL}(p||q)=\sum^N_{i=1}p(x_i)log\frac{p(x_i)}{q(x_i)}DKL(p∣∣q)=∑i=1Np(xi)logq(xi)p(xi)其中 p(x) 是目标分布,q(x)是去匹配...翻译 2019-06-18 17:40:36 · 1560 阅读 · 0 评论 -
深入理解Batch Normalization批标准化
Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Training b...转载 2019-07-24 22:03:53 · 690 阅读 · 1 评论 -
VGG-16网络结构
一、VGG-16网络框架介绍VGGNet是牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠33的小型卷积核和22的最大池化层,VGGNet成功地构筑了16~19层深的卷积神经网络。VGGNet相比之前state-of-the-art的...转载 2019-03-13 11:46:08 · 29091 阅读 · 3 评论 -
基础 | batchnorm原理及代码详解
转自:https://blog.youkuaiyun.com/qq_25737169/article/details/79048516前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。本文旨在用通俗易懂的语言,对深度学习的常用算法–batchnorm的原理及其代码实现做一个详细的解读。本文主要包括以下几个部分。Batc...转载 2019-04-19 17:50:16 · 224 阅读 · 0 评论 -
BN(BatchNorm)的理解
论文名字:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift论文地址:https://arxiv.org/abs/1502.03167一、研究意义近年来,随机梯度下降成了训练深度网络的主流方法。尽管随机梯度下降法对于训练深度网络简单高效,但是它有个毛病,就是...原创 2019-08-08 15:54:48 · 1465 阅读 · 0 评论 -
python zero_grad()
有两种方式直接把模型的参数梯度设成0:model.zero_grad()optimizer.zero_grad() # 当optimizer=optim.Optimizer(model.parameters())时,两者等效如果想要把某一Variable的梯度置为0,只需用以下语句:Variable.grad.data.zero_()# Zero the gradients befo...转载 2019-06-28 10:10:13 · 10718 阅读 · 3 评论 -
optimizer优化算法总结
优化方法总结参考深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)An overview of gradient descent optimization algorithms文章目录优化方法总结1. SGD1.1 Batch gradient descent1.2 Stochastic gradient descent1.3 Mi...转载 2019-06-13 16:16:16 · 385 阅读 · 0 评论 -
[AdvGAN]Generating Adversarial Examples with Adversarial Networks阅读笔记
目录文章目录@[toc]1.简介2.相关工作3.利用生成网络来生成对抗样本3.1.问题定义3.2.AdvGAN框架3.3黑盒攻击与对抗网络动态蒸馏4.实验结果4.1.AdvGAN在半白盒攻击中的设置4.2.AdvGAN在黑盒攻击中的设置4.3.防御下的攻击效能4.4.高分辨率对抗性的例子5.结论1.简介深度神经网络已经取得了很多成就,但是近来许多工作已经证明DNN在对抗干扰上是很脆弱的。许多...原创 2020-01-06 09:58:42 · 6892 阅读 · 2 评论 -
一文搞懂反向传播算法
一、前言这是一场以误差(Error)为主导的反向传播(Back Propagation)运动,旨在得到最优的全局参数矩阵,进而将多层神经网络应用到分类或者回归任务中去。前向传递输入信号直至输出产生误差,反向传播误差信息更新权重矩阵。这两句话很好的形容了信息的流动方向,权重得以在信息双向流动中得到优化,这让我想到了北京城的夜景,车辆川流不息,车水马龙,你来我往(* ॑꒳ ॑* )⋆*。至...转载 2019-01-07 10:25:59 · 359 阅读 · 0 评论 -
tensorflow官方文档【1. 新手入门】
TensorFlow官方文档1. 新手入门1.1 介绍简介本章的目的是让你了解和运行 TensorFlow!在开始之前, 让我们先看一段使用 Python API 撰写的 TensorFlow 示例代码, 让你对将要学习的内容有初步的印象.这段很短的 Python 程序生成了一些三维数据, 然后用一个平面拟合它.import tensorflow as tfimport numpy...原创 2018-12-27 09:36:42 · 1160 阅读 · 0 评论 -
TensorFlow-Slim API 官方教程
TensorFlow 版本: 1.12.0TF-Slim 模块是 TensorFlow 中最好用的 API 之一。尤其是里面引入的 arg_scope、model_variables、repeat、stack。转载 2019-05-14 15:49:39 · 9259 阅读 · 3 评论 -
upsampling(上采样)& downsampled(降采样)
缩小图像缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的是两个:使得图像符合显示区域的大小;生成对应图像的缩略图;下采样的原理:对于一幅图像尺寸为M∗NM*NM∗N,对其进行sss倍的下采样,即得到(M/s)∗(N/s)(M/s)*(N/s)(M/s)∗(N/s)尺寸的分辨率图像,当然,sss应该是MMM和NNN的公约数才可以,如果考虑...原创 2019-01-08 11:01:42 · 4017 阅读 · 0 评论 -
数据集大全:25个深度学习的开放数据集
介绍深度学习的关键是训练。无论是从图像处理到语音识别,每个问题都有其独特的细微差别和方法。但是,你可以从哪里获得这些数据?现在你看到的很多研究论文都使用专有数据集,而这些数据集通常不会向公众发布。如果你想学习并应用你新掌握的技能,数据就成为一个问题。在本文中,我们列出了一些高质量的数据集,每个深度学习爱好者都可以使用并改善改进他们模型的性能。 拥有这些数据集将使你成为一名更好的数据科学...转载 2018-12-04 16:57:25 · 930 阅读 · 0 评论 -
ECCV 2018论文解读及资源集锦(10月17日更新,含全部论文下载链接)
之前我们整理了CVPR 2018 论文解读集锦和历年VALSE 视觉资源汇总(两篇都仍在更新中),目前计算机视觉三大顶级会议之一的ECCV,European Conference on Computer Vision(欧洲计算机视觉国际会议) ,将于2018年9月8日在德国慕尼黑举行,目前已经逐渐公开接收论文名单,为了能够让大家更集中深刻地了解ECCV2018的优秀论文,极市为大家整理了一些ECC...转载 2018-11-29 16:16:28 · 513 阅读 · 0 评论 -
ICCV 2017:世界最大人脸对齐数据集,距离解决人脸对齐已不远
ImageNet百万级精准标记数据集开启了图像识别新时代,人们也由此意识到,数据跟算法同样重要。为了构建更好的模型和算法,越来越多的研究人员开始在数据集方面展开探索,而且,标记数据的方法也不仅仅限于耗时耗力的人工。这方面最新的一项成果,是诺丁汉大学计算机视觉实验室的研究人员即将在ICCV 2017发表的论文,研究人员在论文中描述了他们创建的迄今最大的3D人脸对齐数据集(约230,00...转载 2018-11-29 16:13:02 · 694 阅读 · 0 评论 -
2018年计算机视觉领域顶级会议时间表及文章下载
在计算机视觉领域,每年都会有很多顶级会议召开,如比较著名的CVPR,ICCV等,在会议上会有CV各个领域的新思想、新方法被提出来,推动着这个领域的发展,以下为2018年各个会议的时间地点,还有会议相关链接。1. IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2018)Location / Date: Sal...转载 2018-11-29 15:52:19 · 405 阅读 · 0 评论 -
ICCV 2017 论文解读集锦
之前我们整理过视觉顶会CVPR2017的论文解读文章 和NIPS 2017 论文解读集锦,ICCV2017已经结束一段时间了,为了能够让大家更深刻了解ICCV的论文,我们进行了下面的整理。PS.之前也分享过ICCV 2017的论文分类汇总,有兴趣的朋友们可在该链接中查看:ICCV2017|计算机视觉顶级会议ICCV2017论文分类汇总(更新中) 1.高清实景合成解读 (ICCV 201...转载 2018-11-29 15:45:25 · 569 阅读 · 0 评论