机器学习
文章平均质量分 69
SarKerson
初步计算机图形学
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
autoEncoder
autoEncoder Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须原创 2017-11-28 16:28:15 · 1331 阅读 · 1 评论 -
Tensor
Knowing TensorFlow Core principles will give you a great mental model of how things are working internally when you use the more compact higher level API. follow this pagetensor是tensorflow的核心数据单元tenso原创 2017-11-24 16:11:06 · 444 阅读 · 0 评论 -
自定义模型
custom modelwe need to use tf.estimator.Estimator. tf.estimator.LinearRegressor is actually a sub-class of tf.estimator.Estimator. Instead of sub-classing Estimator, we simply provide Estimator a funct原创 2017-11-24 16:12:35 · 1107 阅读 · 0 评论 -
Tensorflow-浅层神经网络(MNIST数据集)
过拟合 指的是,模型在train-set上的预测精度提高,在test-set的预测精度却降低 即, 模型只是记住了当前模型的特征,不具备很好的泛化性Dropout 随机将某一层的输出节点数据随机丢弃一部分,相当于创造更多样本,通过增大样本量,减少特征数量防止过拟合梯度弥散 使用sigmoid作为激活函数的话,在反向传播过程,梯度会指数级逐渐减小,这种情况下,更新神经网络的参数会原创 2017-11-28 16:30:42 · 862 阅读 · 0 评论 -
Tensorflow-浅层CNN(MNIST数据集)
CNN 卷积神经网络的提出,解决了传统的基于SIFT类型特征提取算法的繁琐问题。原图像可以直接作为输入。 CNN与SIFT一样,对缩放、平移、旋转等畸变具有不变性,有很强泛化性。 * 卷积的权值共享,大幅减少神经网络参数量,防止过拟合(low bias; high var)* 全连接层由于参数过多、梯度弥散,不利于多层训练 每个卷积会经过以下几个操作 * 图像经过多个不同原创 2017-12-05 16:38:39 · 909 阅读 · 1 评论
分享