- 博客(73)
- 资源 (6)
- 收藏
- 关注

原创 【教程】旷视的两个有趣的东西
第一个是旷视和北大在2017-2019年搞的联合课程github:https://github.com/zsc/megvii-pku-dl-courseB站视频:https://www.bilibili.com/video/av88056282讲课的不单有耳熟能详的几位大佬,还有在科研交付一线打拼多年,当下各战线的领军人物。第二是刚刚开源的MegEnginegithub:https...
2020-03-26 11:40:50
1099
1
原创 【平价数据】Creatism:Google的自动风光摄影师
Fang, Hui, and M. Zhang. “Creatism: A deep-learning photographer capable of creating professional work.” (2017).这篇论文借助有限的无标定数据,用深度网络在虚拟自然环境中完成“取景-调色-打光”的摄影过程。所涉及的理论并不复杂,但给出的过程详细,对解决实际问题很有启发。 这里可以看
2018-01-04 15:51:52
4328
2
原创 【深度学习】一张图看懂Receptive Field
本文尝试用最简明直白的图示,帮助理解和记忆Receptive Field的计算方法。什么是Receptive Field?在CNN中,第n层特征图中一个像素,对应第1层(输入图像)的像素数,即为该层的Receptive Field,简称RF。基本思路网络第1层输入,第n" role="presentation" style="position: relative;">nn
2017-12-15 22:36:03
19932
原创 【推荐系统】Factorization Machine
本文介绍推荐系统基础算法Factorization Machines的模型思想、计算与优化方法。
2017-12-11 21:41:18
9020
1
原创 【平价数据】SimGAN:活用合成数据和无监督数据
Shrivastava, Ashish, et al. “Learning from simulated and unsupervised images through adversarial training.” IEEE Conference on Computer Vision and Pattern Recognition.2017概述本文是Apple在机器学习领域的首秀,同
2017-09-15 15:09:44
5862
原创 【平价数据】GAN用于半监督学习
介绍Improved techniques for training gans中使用GAN进行半监督分类的方法
2017-07-25 13:04:42
17594
4
原创 【深度学习】One Model to Learn Them All详解
详解Google论文One Model To Learn Them All
2017-07-04 21:33:53
7947
原创 【深度学习】DeepMind关系推理网络
介绍Deep Mind简单而强力的关系推理网络:A simple neural network module for relational reasoning。
2017-06-22 18:14:35
8385
原创 【深度学习】RNN的梯度消失/爆炸与正交初始化
在训练较为复杂的RNN类型网络时,有时会采取正交方法初始化(orthogonal initialization)网络参数。本文用简单的例子介绍其中的原因。本文较大程度参考了这篇博客。简单例子RNN具有如下形式: ht=fh(W⋅ht−1+V⋅xt)h_t=f_h(W\cdot h_{t-1}+V\cdot x_t)yt=fy(U⋅ht)y_t = f_y(U\cdot h
2017-05-09 22:40:22
12606
原创 【深度学习】Inception层详解
本文参考Torch的dpnn包中Inception层的源码,讲解该模块参数含义以及网络结构。核心思想Inception模块的起点是类似下图的结构:通道从M变换到N,把多个不同尺寸的卷积结果串接(concat)起来。 由于M,N往往很大,这种结构的模型大小和运算量都不小。 卷积运算,输入M层,输出N层,核尺寸k。输入数据大小H*W。 卷积参数数量:weight + b
2017-04-09 18:28:37
12808
原创 【数学】方差/标准差的各种估计辨析
常用的方差(variance)、标准偏差(standard derivation)的内涵和计算方法有许多容易混淆之处,本文进行梳理。
2017-02-28 18:49:44
16524
1
原创 【线性代数】矩阵与线性方程组的几何意义
有线性方程组Ax=bAx=b。本文以三维为例,讨论其物理意义。解的物理意义上述线性方程组包含若干个三元一次方程: a11x1+a12x2+a13x3=b1a_{11}x_1+a_{12}x_2+a_{13}x_3 = b_1a21x1+a22x2+a23x3=b2a_{21}x_1+a_{22}x_2+a_{23}x_3 = b_2a31x1+a32x2+a33x3=
2017-02-07 19:28:53
18225
1
原创 【行人识别】Deep Transfer Learning for Person Re-identification
解决行人识别中的Re-Identification问题:判断两次出现的人是否是同一个人。在Market 1501竞赛中名列榜首。
2016-12-22 16:02:01
10746
3
原创 【平价数据】One Shot Learning
简介DeepMind解决小样本学习问题的文章:Matching Networks for One Shot Learning
2016-11-12 12:13:55
19089
4
原创 【TensorFlow动手玩】常用集合: Variable, Summary, 自定义
TensorFlow的集合,Variable,Summary
2016-11-04 23:10:33
29039
原创 【TensorFlow动手玩】基本概念: Tensor, Operation, Graph
介绍TensorFlow中三大基本概念:Tensor,Operation,Graph
2016-11-04 20:07:30
6874
原创 【深度学习】残差结构:1000层网络
本文介绍深度神经网络从几层加深到一千层的各种关键技术,尤其聚焦残差结构(Residual)在其中发挥的作用。
2016-10-12 17:53:00
9798
原创 【深度学习】常见优化算法
本文介绍常见数值优化算法,其中的一阶方法在现代的神经网络框架(tensorflow, torch)中已经是标准配置,介绍较详细。
2016-10-09 19:25:57
13979
原创 【优化】梯度下降 收敛性 证明
梯度下降方法的收敛率是O(1/t)O(1/t)。本文首先介绍梯度下降算法的定义,之后解释收敛性的意义,并给出梯度下降算法收敛性详细证明过程1。梯度下降算法设系统参数为xx。对于样本ii,其代价函数为fi(x)f_i(x)。在n个样本组成的训练集上,其整体代价函数为: f(x)=∑i=1nfi(x)f(x)=\sum_{i=1}^nf_i(x)要求ω\omega使得上式最小,
2016-09-19 23:01:34
30579
13
原创 【深度学习】Torch卷积层源码详解
本文以前向传播为例,详细分析Torch的nn包中,SpatialConvolution函数的实现方式。
2016-08-31 19:11:57
10762
1
原创 【深度学习】卷积层提速Factorized Convolutional Neural Networks
详解深度学习卷积层优化算法Factorized Convolutional Neural Networks。
2016-08-24 17:59:29
18985
1
原创 【深度学习】生成对抗网络Generative Adversarial Nets
介绍非监督深度学习经典论文GAN(Generative Adversarial Nets)
2016-08-17 19:05:51
51552
2
原创 【图像理解】之Show, attend and tell算法详解
详解图像理解中的聚焦机制代表作Show, attend and tell算法。
2016-08-13 22:10:16
42314
6
原创 【深度学习】A neural algorithm of artistic style算法详解
介绍2016年深度学习大热的风格转移论文:A neural algorithm of artistic style。
2016-08-07 11:45:17
25679
4
原创 【循环网络】Torch中的rnn
本文从零开始,动手玩一玩Nicolas Leonard在Torch框架下提供的rnn库。这里以每一个类为单位,使用简单的例子进行演练,比作者提供的一系列demo更加好懂。
2016-07-12 11:20:03
2605
原创 【深度学习】聚焦机制DRAM(Deep Recurrent Attention Model)算法详解
Visual Attention基础,Multiple object recognition with visual attention算法解读。
2016-06-28 22:14:55
14816
2
原创 【增强学习】Recurrent Visual Attention源码解读
Mnih, Volodymyr, Nicolas Heess, and Alex Graves. “Recurrent models of visual attention.” Advances in Neural Information Processing Systems. 2014.戳这里下载训练代码,戳这里下载测试代码。这篇文章处理的任务非常简单:MNIST手写数字分类。但使用了聚焦机制(
2016-06-17 21:18:27
14591
8
Bayesian Prediction of Spatial Count Data Using Generalized Linear Mixed Models
2015-12-25
Feature-guided Image Stippling
2015-02-24
2001.Random Forests.Machine Learning
2014-08-24
OpenGL Documentation (html)
2009-02-08
OpenGL读取3DS文件示例
2008-10-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人