- 博客(231)
- 资源 (3)
- 收藏
- 关注
转载 使用Pycharm和跳板机 连接内网服务器
转载:https://www.jianshu.com/p/8f262bc444f0最近遇到一个问题,实验室服务器仅限内网访问,同时实验室也提供了一个跳板机,可以先ssh到跳板机再从跳板机ssh到内网服务器。然而这种方式不方便传输文件,也没法用pycharm进行自动同步代码或者远程调试。本篇文章给出了一个该类问题的解决方案,即通过ssh隧道的方式,用Pycharm通过跳板机连接内网服务器。注...
2019-04-11 18:47:30
12324
3
转载 Batch norm代码实现
CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记Batchnorm的思想简单易懂,实现起来也很轻松,但是却具有很多优良的性质,具体请参考课程笔记。下图简要介绍了一下Batchnorm需要完成的工作以及优点(详情请见CS231n课程笔记5.3:Batch Normalization): 需要注意的有:最后一步对归一...
2018-04-12 20:13:07
1898
转载 Pytorch中的backward
原文:https://sherlockliao.github.io/2017/07/10/backward/接触了PyTorch这么长的时间,也玩了很多PyTorch的骚操作,都特别简单直观地实现了,但是有一个网络训练过程中的操作之前一直没有仔细去考虑过,那就是loss.backward(),看到这个大家一定都很熟悉,loss是网络的损失函数,是一个标量,你可能会说这不就是反向传播吗,有什么好讲的。
2018-03-30 21:35:57
12934
10
原创 train loss 与 test loss
train loss 不断下降,test loss不断下降,说明网络仍在学习;(最好的)train loss 不断下降,test loss趋于不变,说明网络过拟合;(max pool或者正则化)train loss 趋于不变,test loss不断下降,说明数据集100%有问题;(检查dataset)train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量...
2018-03-26 19:46:52
1842
转载 KL散度(相对熵)、交叉熵的解析
1 前言注意两个名词的区别:相对熵:Kullback–Leibler divergence交叉熵:cross entropyKL距离的几个用途:① 衡量两个概率分布的差异。② 衡量利用概率分布Q 拟合概率分布P 时的能量损耗,也就是说拟合以后丢失了多少的信息,可以参考前面曲线拟合的思想。③ 对①的另一种说法,就是衡量两个概率分布的相似度,在运动捕捉里面可以衡量未添加标签的运动与已添加标签的运动,进...
2018-03-15 21:59:57
15482
转载 pytorch detach解析
pytorch detach 与 detach_pytorch 的 Variable 对象中有两个方法,detach和 detach_ 本文主要介绍这两个方法的效果和 能用这两个方法干什么。detach官方文档中,对这个方法是这么介绍的。返回一个新的 从当前图中分离的 Variable。返回的 Variable 永远不会需要梯度如果 被 detach 的Variable volatile=True...
2018-03-14 16:14:45
6133
转载 jupyter notebook 架设在服务器 在windows 本地用浏览器的访问服务器上的jupyter
服务器端配置:1. 官网下载anaconda2.安装anaconda: bash Anaconda3-4.2.0-Linux-x86_64.sh(记得安装的最后yes 添加环境变量)3.接下来,我们需要创建一个名为nbserver的配置。ipython profile create nbserver这将创建一个文件夹,其中包含一些原始的配置文件。我们跳转到这个文件夹进行一些配置cd ~/.ipyt...
2018-03-13 18:43:06
1682
转载 计算机视觉科研入门
入门一年多来的心路历程2016.11~2017.3时间倒回到大二上,那会就想做一点跟数学和计算机相关的东西,就入了计算机视觉( CV )的坑。•最开始是重新学了一遍线代,毕竟 ML 里面,还是以数学为基础的。大一学的线代是皮毛,根本不够看,SVD ,PCA 在干嘛根本不清楚。补课是必须的。•我也看了吴恩达在 coursera 上面的视频,其实那个视频呢~很简单的基本概念,但是很重要,因为有助于你形...
2018-03-12 13:16:03
2385
原创 GAN中的模式崩塌
原文:http://aiden.nibali.org/blog/2017-01-18-mode-collapse-gans/How to address mode collapse, a commonly encountered failure case for GANs where the generator learns to produce samples with extremely low
2018-03-09 09:46:26
9848
转载 ubuntu下100%成功安装torch,同时配置cuda和cudnn
原文:http://blog.youkuaiyun.com/hungryof/article/details/51557666总说这些更新不影响主体。所有更新附加在文章最后。 第一次更新: 内容:添加一些Torch7常用库的安装,时间:2017.3.20 第二次更新:内容:某些torch库无法在线安装,转成离线安装的方法,时间:2017.3.31 第三次更新:内容:针对安装”cutorch”时出错的问题修复。...
2018-03-08 16:04:24
1064
转载 LAPGAN论文解析
原文:http://blog.youkuaiyun.com/sallyxyl1993/article/details/68067831本文基于2015年的经典论文:Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks 论文下载地址:https://arxiv.org/abs/1506.05751LAPGAN...
2018-03-07 11:44:47
3180
原创 Tips
1.建立项目,进入项目文件夹2.初始化ssh key 参见官网指南.(本机生成一对key,public key传到官网sshkey下面) https://help.github.com/articles/generating-ssh-keys/3.初始化用户名,邮箱 $ git config --global user.name "defnngj"//给自己起个用户名 $ git config -...
2018-03-06 21:10:58
248
原创 github问题记录
github问题记录1.修改本地代码仓库中子文件夹中某一文件格式,即将后缀.md去除后接着 git add -u git commit -m "message" git push origin master发现修改格式的文件在github上丢失solve:将sublime编辑器中改文件保存,在其目录中出现两个同名文件,一个带后缀一个没带删除带后缀的文件,同时在bash中cd到该文件夹下,执行命令...
2018-03-06 21:10:09
309
原创 简单使用github
1.首先新建一个文件夹,打开git bash,cd到此文件目录下2.git init初始化在本地代码库会自动创建一个.git 隐藏文件,这个就是本地代码库3.添加文件 git add . (注意这里有实心点,此命令表示添加当前文件夹下的所有文件)或者可以采用单个文件添加方法git add index.html, test.html4.提交文件创建时间点git commit -m "init com...
2018-03-06 21:09:29
338
转载 模式识别之 MDS Multidimensional Scaling 多维尺度法 分析及Matlab实现
原文:http://blog.youkuaiyun.com/songrotek/article/details/42235097在模式识别中,我们会考虑到距离distance的问题,就是一个样本和另一个样本在空间中的距离。根据距离的大小来判断分类。那么,也存在这样的一类问题:我们只知道空间中的点(样本)的距离,那么怎么来重构这些点的相对位置呢? 显然欧式距离是最直观的距离,那么我们就会想使用欧式距离来进行计算...
2018-02-26 16:08:03
1228
转载 Laplacian Eigenmaps原理
原创书写,转载请注明此文出自:http://www.cnblogs.com/xbinworld,http://blog.youkuaiyun.com/xbinworld Laplacian Eigenmaps 继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps。其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,因此解决问题的思路是...
2018-02-26 15:45:42
1155
转载 LLE原理总结
原文: https://www.cnblogs.com/pinard/p/6266408.html?utm_source=itdadao&utm_medium=referral 局部线性嵌入(Locally Linear Embedding,以下简称LLE)也是非常重要的降维方法。和传统的PCA,LDA等关注样本方差的降维方法相比,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维...
2018-02-26 15:44:34
1508
转载 维度打击,机器学习中的降维算法:ISOMAP & MDS
原文:http://blog.youkuaiyun.com/Dark_Scope/article/details/53229427降维是机器学习中很有意思的一部分,很多时候它是无监督的,能够更好地刻画数据,对模型效果提升也有帮助,同时在数据可视化中也有着举足轻重的作用。一说到降维,大家第一反应总是PCA,基本上每一本讲机器学习的书都会提到PCA,而除此之外其实还有很多很有意思的降维算法,其中就包括isomap...
2018-02-26 14:09:55
929
转载 带你搞懂朴素贝叶斯分类算法
带你搞懂朴素贝叶斯分类算法带你搞懂朴素贝叶斯分类算贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。这篇文章我尽可能用直白的话语总结一下我们学习会上讲到的朴素贝叶斯分类算法,希望有利于他人理解。1 分类问题综述 对于分类
2018-02-04 20:42:09
372
转载 深度学习分割网络U-net的pytorch模型实现
原文:http://blog.youkuaiyun.com/u014722627/article/details/60883185pytorch是一个很好用的工具,作为一个python的深度学习包,其接口调用起来很方便,具备自动求导功能,适合快速实现构思,且代码可读性强,比如前阵子的WGAN1 好了回到Unet。 原文 arXiv:1505.04597 [cs.CV] 主页 U-Net
2017-12-06 15:52:36
10083
2
转载 十分钟看懂图像语义分割技术
大多数人接触 “语义” 都是在和文字相关的领域,或语音识别,期望机器能够识别你发出去的消息或简短的语音,然后给予你适当的反馈和回复。嗯,看到这里你应该已经猜到了,图像领域也是存在 “语义” 的。今天是 AI 大热年,很多人都关注与机器人的语音交互,可是有没有想过,将来的机器人如果不能通过图像来识别主人,家里的物品、宠物,那该多没意思。说近一些,假如扫地机器人能够机智地绕开你丢在地上的臭袜子
2017-12-06 11:28:30
1077
1
原创 图像语义分割之FCN和CRF
前言(呕血制作啊!)前几天刚好做了个图像语义分割的汇报,把最近看的论文和一些想法讲了一下。所以今天就把它总结成文章啦,方便大家一起讨论讨论。本文只是展示了一些比较经典和自己觉得比较不错的结构,毕竟这方面还是有挺多的结构方法了。介绍图像语义分割,简单而言就是给定一张图片,对图片上的每一个像素点分类从图像上来看,就是我们需要将实际的场景图分割成下面的分割图:
2017-12-06 10:54:22
357
转载 图像语义分割简介
今天,我们就来谈谈自动驾驶系统中的一项重要核心技术——图像语义分割(Semantic image segmentation)。图像语义分割作为计算机视觉(Computer vision)中图像理解(Image understanding)的重要一环,不仅在工业界的需求日益凸显,同时语义分割也是当下学术界的研究热点之一。什么是图像语义分割?图像语义分割可以说是
2017-12-01 12:10:03
6808
转载 基于深度学习的目标检测
普通的深度学习监督算法主要是用来做分类,如图1(1)所示,分类的目标是要识别出图中所示是一只猫。而在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)竞赛以及实际的应用中,还包括目标定位和目标检测等任务。其中目标定位是不仅仅要识别出来是什么物体(即分类),而且还要预测物体的位置,位置一般用边框(bounding box)标记,如图1(
2017-11-25 19:29:44
6823
1
原创 深度学习优化算法总结(cs231n)
https://zhuanlan.zhihu.com/p/21798784?refer=intelligentunit
2017-11-25 18:44:10
1537
转载 关于anaconda 找包,安装包的一些总结(关于Anaconda中PackageNotFoundError: '' Package missing in current win-64 channe)
一、Anaconda作为一个工具包集成管理工具,下载python工具包是很方便的,直接敲:conda install package_name但是有时候安装一个工具包(如xmltodict)的时候,在当前的channels中找不到这个包,会提示:conda install pydot Fetching package metadata ....... Solvi
2017-11-25 11:49:29
6437
原创 通俗|令人拍案叫绝的Wasserstein GAN 及代码(WGAN两篇论文的中文详细介绍)
今天第一篇为WGAN理论深入介绍。在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文Wassertein GAN 却在 Reddit 的 Machine Learning 频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢? 要知道自从2014年Ian Goodfellow提出以来,GA
2017-11-24 10:29:29
2997
1
转载 Anaconda虚拟环境迁移小记录
今天尝试了把本机中的虚拟环境envs中的python3环境直接以复制粘贴的形式拷贝到服务器中anaconda envs目录下。拷贝完成之后使用activate python3是可以激活进入python3虚拟环境的,但是使用conda list命令却提示找不到命令,解决方案是将服务器中的Anaconda2\envs\python3\Scripts目录下的conda.bat中的执行路径替换
2017-11-22 21:13:23
2089
转载 Batch Normalization导读
author: 张俊林http://blog.youkuaiyun.com/malefactor/article/details/51476961Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷迪斯俺的詹特曼们都应该好好学一学BN。BN倒过来看就是NB,因
2017-11-17 23:13:40
219
转载 试验性的Numpy教程
试验性的Numpy教程原文来自Tentative NumPy Tutorial目录toc {: toc }先决条件在阅读这个教程之前,你多少需要知道点python。如果你想重新回忆下,请看看Python Tutorial.如果你想要运行教程中的示例,你至少需要在你的电脑上安装了以下一些软件:PythonNumPy这些是可能对你有帮
2017-11-16 23:32:52
338
原创 VAE背后的哲学思想及数学原理
短短三年时间,变分编码器VAE(Variational Auto-encoder)同GAN一样,成为无监督复杂概率分布学习的最流行的方法。VAE之所以流行,是因为它建立在标准函数逼近单元,即神经网络,此外它可以利用随机梯度下降进行优化。本文将解释重点介绍VAE背后的哲学思想和直观认识及其数学原理。VAE的最大特点是模仿自动编码机的学习预测机制,在可测函数之间进行编码、解码。同GAN类似,其
2017-11-14 16:44:55
1776
转载 AutoEncoder与VAE
什么是自动编码器自动编码器(AutoEncoder)最开始作为一种数据的压缩方法,其特点有:1)跟数据相关程度很高,这意味着自动编码器只能压缩与训练数据相似的数据,这个其实比较显然,因为使用神经网络提取的特征一般是高度相关于原始的训练集,使用人脸训练出来的自动编码器在压缩自然界动物的图片是表现就会比较差,因为它只学习到了人脸的特征,而没有能够学习到自然界图片的特征;2)压缩后数据是有损的,这
2017-11-14 15:56:48
1432
转载 GAN和DCGAN的讨论
1. GAN对噪声z的分布有要求吗?常用哪些分布?一般没有特别要求,常用有高斯分布、均匀分布。噪声的维数至少要达到数据流形的内在维数,才能产生足够的diversity,mnist大概是6维,CelebA大概是20维(参考:https://zhuanlan.zhihu.com/p/26528060)2. GAN的 adversarial 体现在哪里?G和D的博弈,G需要尽量贴
2017-11-11 16:07:41
4571
转载 一句一句读Pytorch
原文链接:zhuanlan.zhihu.com试图从code snippets 和 pytorch 源代码 去理解深度学习概念与技巧返回 总目录文章视频笔记是按时间循序更新的,越往下越新大部分视频争取控制在5-8分钟以内,极少数时间在10分钟以上。如何使用pytorch的numpy如何理解pytorch.Variablepytorch如何求导数pyt
2017-11-09 14:35:19
7221
原创 图片转换成HDF5文件(加载、保存)
IntroductionWhen we talk about deep learning, usually the first thing comes to mind is a huge amount of data or a large number of images (e.g. a couple of milions images in ImageNet). In such situ
2017-11-07 20:48:11
6200
1
转载 Batch Normalization
Batch Normalization 学习笔记原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Traini
2017-11-02 12:09:18
585
原创 pip安装到用户目录(不需要管理员权限)
在用户的home目录底下有个.pip目录,即~/.pip,在这里面新建一个pip.conf,里面写上[install]install-option=--prefix=~/.local然后再pip install leveldb就行了还有个更简单的方法: pip install --user paramiko
2017-11-01 19:04:50
17134
转载 C++中const、volatile、mutable的用法
const修饰普通变量和指针const修饰变量,一般有两种写法:const TYPE value;TYPE const value;这两种写法在本质上是一样的。它的含义是:const修饰的类型为TYPE的变量value是不可变的。对于一个非指针的类型TYPE,无论怎么写,都是一个含义,即value值不可变。例如: const int nValue; //nValue是constint con...
2017-10-31 12:34:37
212
转载 Ubuntu 16.04或14.04里下安装搜狗输入法(图文详解)(全网最简单)
不多说,直接上干货! 其实啊,很简单 分三步走 1、添加fcitx的键盘输入法系统,因为sogou是基于fcitx的,而系统默认的是iBu
2017-10-28 22:27:29
9589
转载 Minimax算法及实例分析
计算机科学中最有趣的事情之一就是编写一个人机博弈的程序。有大量的例子,最出名的是编写一个国际象棋的博弈机器。但不管是什么游戏,程序趋向于遵循一个被称为Minimax算法,伴随着各种各样的子算法在一块。 Minimax算法又名极小化极大算法,是一种找出失败的最大可能性中的最小值的算法。Minimax算法常用于棋类等由两方较量的游戏和程序,这类程序由两个游戏者轮流,每次执行
2017-10-28 17:23:33
15614
1
网络是怎样连接的.pdf
2017-10-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人