Geoffrey Hinton Neural Network
文章平均质量分 73
LettyLin
好好生活OVO
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Relational Learning Task
24个人表示成24维向量,除了一个,其余都是0:Colin =(1,0,0,0,…,0),Charlotte = (0,0,1,0…,0)为什么不用更简单的表示呢,比如计算机中的二进制(5维可表示)?Colin =(0,0,0,0,1), Charlotte = (0,0,0,1,1)24维表示法使得输入线性可分24维表示法不需要先验知识 样本:一个英国家庭,一个意大利原创 2017-12-20 14:22:18 · 618 阅读 · 0 评论 -
Learning world representation
很难将物体与其他物体分别开:分割(segmentation)光线(lighting)形变(deformation)功能可见性(affordances)观察点(viewpoint):维度跳跃(dimension-hopping):由于观察点变化,信息从一个维度跳跃到了另一个维度。 ____________________________________________原创 2017-12-21 17:11:16 · 293 阅读 · 0 评论 -
神经网络中的梯度下降
误差平面:以平方误差的线性神经元:二次的碗状(quadratic bowl) 多层非线性网络的误差曲面复杂得多,但是只要权重不是太大,仍然可用二次的碗状拟合局部。 两种学习算法:full gradient : 使用所有的数据计算梯度mini-batch : 使用小批量学习(数据集最好很大,有很多冗余) 学习率:猜测一个初始的学习率写一个简原创 2017-12-22 16:14:20 · 534 阅读 · 0 评论 -
Basic Neurons
Recognizing patterns -Objects in real scenes -Facial identities or facial expressions -Spoken wordsRecognizing anomalies -Unusual sequence原创 2017-12-19 11:46:16 · 545 阅读 · 0 评论 -
Three Types of Learning
监督学习的两个分类:回归和分类 Unsupervised learning AIM: -create an internal representation of the input that is useful for subsequent supervised or reinforcement learning -It provides a原创 2017-12-19 13:00:15 · 547 阅读 · 0 评论 -
Perceptrons
神经网络的结构: 神经元之间的连接方式最常见:前馈神经网络 feedforward neural network信息从输入层流入,沿着一个方向通过隐藏层,直到输出层。如果有多个隐藏层,就成为深度神经网络。They compute a series of transformations that change the similarities原创 2017-12-19 13:02:35 · 780 阅读 · 0 评论 -
Linear&Logistic Neuron
multi-layer neuralnetworks do not use the perceptron learning procedure.Because this type ofguarantee cannot be extended to more complex networks in which the average oftwo good solutions may be a b原创 2017-12-19 13:25:42 · 362 阅读 · 0 评论
分享