
深度学习
文章平均质量分 64
smallflyingpig
私信基本不看,需要联系请邮件:lijiguo16@ucas.ac.cn
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
torch 踩坑小结
近期使用torch写神经网络的框架,初次接触,踩了不少坑,在这里总结一下。tensor typetorch中tensor是有类型的,默认是DoubleTensor原创 2017-12-09 23:54:24 · 6693 阅读 · 0 评论 -
pytorch 与 BatchNormalization
BatchNormallization是神经网络中的一个正则化技术,可以加速网络的收敛,并且在一定程度上解决深度网络“梯度弥散”的问题。它本是数据预处理的一种方法,google的研究人员将它应用在了神经网络中。论文地址:https://arxiv.org/abs/1502.03167 理论pytorch batch normalization:原创 2017-12-21 12:54:55 · 8138 阅读 · 1 评论 -
RNN与LSTM
推荐资料 wiki:Long short-term memory RNN原创 2017-12-18 18:23:20 · 1011 阅读 · 0 评论 -
卷积(conv)与转置卷积(transposed conv, deconv)
转置卷积/解卷积/transposed conv/deconv reference: http://deeplearning.net/software/theano/tutorial/conv_arithmetic.html 1. 从一维卷积开始 * kernel=3, stride=1, padding=0 conv(x)=(x1,x2,x3,x4,x5)T⎡⎣⎢⎢⎢⎢⎢k1k2k300...原创 2018-08-14 13:41:25 · 790 阅读 · 0 评论 -
plot the loss surface (BCE and MSE)for a two layers neural network
import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D def mlp_layer(x, w, b=0): return np.tanh((w.transpose())*x + b) def BCE(y_hat, y): return -(y*np.log2(...原创 2018-08-18 17:41:14 · 823 阅读 · 1 评论