
——深度学习——
文章平均质量分 77
witnessai1
初学者的无知在于未学,学者的无知在于学后
展开
-
图片转换成HDF5文件(加载、保存)
IntroductionWhen we talk about deep learning, usually the first thing comes to mind is a huge amount of data or a large number of images (e.g. a couple of milions images in ImageNet). In such situ原创 2017-11-07 20:48:11 · 6208 阅读 · 1 评论 -
十分钟看懂图像语义分割技术
大多数人接触 “语义” 都是在和文字相关的领域,或语音识别,期望机器能够识别你发出去的消息或简短的语音,然后给予你适当的反馈和回复。嗯,看到这里你应该已经猜到了,图像领域也是存在 “语义” 的。今天是 AI 大热年,很多人都关注与机器人的语音交互,可是有没有想过,将来的机器人如果不能通过图像来识别主人,家里的物品、宠物,那该多没意思。说近一些,假如扫地机器人能够机智地绕开你丢在地上的臭袜子转载 2017-12-06 11:28:30 · 1080 阅读 · 1 评论 -
深度学习分割网络U-net的pytorch模型实现
原文:http://blog.youkuaiyun.com/u014722627/article/details/60883185pytorch是一个很好用的工具,作为一个python的深度学习包,其接口调用起来很方便,具备自动求导功能,适合快速实现构思,且代码可读性强,比如前阵子的WGAN1 好了回到Unet。 原文 arXiv:1505.04597 [cs.CV] 主页 U-Net转载 2017-12-06 15:52:36 · 10093 阅读 · 2 评论 -
LAPGAN论文解析
原文:http://blog.youkuaiyun.com/sallyxyl1993/article/details/68067831本文基于2015年的经典论文:Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks 论文下载地址:https://arxiv.org/abs/1506.05751LAPGAN...转载 2018-03-07 11:44:47 · 3182 阅读 · 0 评论 -
ubuntu下100%成功安装torch,同时配置cuda和cudnn
原文:http://blog.youkuaiyun.com/hungryof/article/details/51557666总说这些更新不影响主体。所有更新附加在文章最后。 第一次更新: 内容:添加一些Torch7常用库的安装,时间:2017.3.20 第二次更新:内容:某些torch库无法在线安装,转成离线安装的方法,时间:2017.3.31 第三次更新:内容:针对安装”cutorch”时出错的问题修复。...转载 2018-03-08 16:04:24 · 1065 阅读 · 0 评论 -
pytorch detach解析
pytorch detach 与 detach_pytorch 的 Variable 对象中有两个方法,detach和 detach_ 本文主要介绍这两个方法的效果和 能用这两个方法干什么。detach官方文档中,对这个方法是这么介绍的。返回一个新的 从当前图中分离的 Variable。返回的 Variable 永远不会需要梯度如果 被 detach 的Variable volatile=True...转载 2018-03-14 16:14:45 · 6134 阅读 · 1 评论 -
GAN中的模式崩塌
原文:http://aiden.nibali.org/blog/2017-01-18-mode-collapse-gans/How to address mode collapse, a commonly encountered failure case for GANs where the generator learns to produce samples with extremely low原创 2018-03-09 09:46:26 · 9857 阅读 · 0 评论 -
Pytorch中的backward
原文:https://sherlockliao.github.io/2017/07/10/backward/接触了PyTorch这么长的时间,也玩了很多PyTorch的骚操作,都特别简单直观地实现了,但是有一个网络训练过程中的操作之前一直没有仔细去考虑过,那就是loss.backward(),看到这个大家一定都很熟悉,loss是网络的损失函数,是一个标量,你可能会说这不就是反向传播吗,有什么好讲的。转载 2018-03-30 21:35:57 · 12946 阅读 · 10 评论 -
图像语义分割之FCN和CRF
前言(呕血制作啊!)前几天刚好做了个图像语义分割的汇报,把最近看的论文和一些想法讲了一下。所以今天就把它总结成文章啦,方便大家一起讨论讨论。本文只是展示了一些比较经典和自己觉得比较不错的结构,毕竟这方面还是有挺多的结构方法了。介绍图像语义分割,简单而言就是给定一张图片,对图片上的每一个像素点分类从图像上来看,就是我们需要将实际的场景图分割成下面的分割图:原创 2017-12-06 10:54:22 · 358 阅读 · 0 评论 -
基于深度学习的目标检测
普通的深度学习监督算法主要是用来做分类,如图1(1)所示,分类的目标是要识别出图中所示是一只猫。而在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)竞赛以及实际的应用中,还包括目标定位和目标检测等任务。其中目标定位是不仅仅要识别出来是什么物体(即分类),而且还要预测物体的位置,位置一般用边框(bounding box)标记,如图1(转载 2017-11-25 19:29:44 · 6824 阅读 · 1 评论 -
深度学习优化算法总结(cs231n)
https://zhuanlan.zhihu.com/p/21798784?refer=intelligentunit原创 2017-11-25 18:44:10 · 1538 阅读 · 0 评论 -
一句一句读Pytorch
原文链接:zhuanlan.zhihu.com试图从code snippets 和 pytorch 源代码 去理解深度学习概念与技巧返回 总目录文章视频笔记是按时间循序更新的,越往下越新大部分视频争取控制在5-8分钟以内,极少数时间在10分钟以上。如何使用pytorch的numpy如何理解pytorch.Variablepytorch如何求导数pyt转载 2017-11-09 14:35:19 · 7242 阅读 · 0 评论 -
Batch Normalization
Batch Normalization 学习笔记原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Traini转载 2017-11-02 12:09:18 · 585 阅读 · 0 评论 -
GAN和DCGAN的讨论
1. GAN对噪声z的分布有要求吗?常用哪些分布?一般没有特别要求,常用有高斯分布、均匀分布。噪声的维数至少要达到数据流形的内在维数,才能产生足够的diversity,mnist大概是6维,CelebA大概是20维(参考:https://zhuanlan.zhihu.com/p/26528060)2. GAN的 adversarial 体现在哪里?G和D的博弈,G需要尽量贴转载 2017-11-11 16:07:41 · 4572 阅读 · 0 评论 -
Batch Normalization导读
author: 张俊林http://blog.youkuaiyun.com/malefactor/article/details/51476961Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷迪斯俺的詹特曼们都应该好好学一学BN。BN倒过来看就是NB,因转载 2017-11-17 23:13:40 · 219 阅读 · 0 评论 -
AutoEncoder与VAE
什么是自动编码器自动编码器(AutoEncoder)最开始作为一种数据的压缩方法,其特点有:1)跟数据相关程度很高,这意味着自动编码器只能压缩与训练数据相似的数据,这个其实比较显然,因为使用神经网络提取的特征一般是高度相关于原始的训练集,使用人脸训练出来的自动编码器在压缩自然界动物的图片是表现就会比较差,因为它只学习到了人脸的特征,而没有能够学习到自然界图片的特征;2)压缩后数据是有损的,这转载 2017-11-14 15:56:48 · 1433 阅读 · 0 评论 -
VAE背后的哲学思想及数学原理
短短三年时间,变分编码器VAE(Variational Auto-encoder)同GAN一样,成为无监督复杂概率分布学习的最流行的方法。VAE之所以流行,是因为它建立在标准函数逼近单元,即神经网络,此外它可以利用随机梯度下降进行优化。本文将解释重点介绍VAE背后的哲学思想和直观认识及其数学原理。VAE的最大特点是模仿自动编码机的学习预测机制,在可测函数之间进行编码、解码。同GAN类似,其原创 2017-11-14 16:44:55 · 1777 阅读 · 0 评论 -
图像语义分割简介
今天,我们就来谈谈自动驾驶系统中的一项重要核心技术——图像语义分割(Semantic image segmentation)。图像语义分割作为计算机视觉(Computer vision)中图像理解(Image understanding)的重要一环,不仅在工业界的需求日益凸显,同时语义分割也是当下学术界的研究热点之一。什么是图像语义分割?图像语义分割可以说是转载 2017-12-01 12:10:03 · 6813 阅读 · 0 评论 -
通俗|令人拍案叫绝的Wasserstein GAN 及代码(WGAN两篇论文的中文详细介绍)
今天第一篇为WGAN理论深入介绍。在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文Wassertein GAN 却在 Reddit 的 Machine Learning 频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢? 要知道自从2014年Ian Goodfellow提出以来,GA原创 2017-11-24 10:29:29 · 2998 阅读 · 1 评论 -
Batch norm代码实现
CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记Batchnorm的思想简单易懂,实现起来也很轻松,但是却具有很多优良的性质,具体请参考课程笔记。下图简要介绍了一下Batchnorm需要完成的工作以及优点(详情请见CS231n课程笔记5.3:Batch Normalization): 需要注意的有:最后一步对归一...转载 2018-04-12 20:13:07 · 1899 阅读 · 0 评论