算法
文章平均质量分 71
山猫小队长
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
视频教程:卡尔曼滤波器的原理以及在MATLAB中的实现
视频教程:卡尔曼滤波器的原理以及在MATLAB中的实现。最近一个月的所有周末都用在这上面了,希望大家喜欢。(分享自 @优酷) http://t.cn/RPPT9uz原创 2014-07-15 20:44:22 · 11428 阅读 · 11 评论 -
深度学习笔记(一)安装Cuda+Theano+Caffe+Torch
在深度学领域,有好几个开源框架,最著名的有Caffe,Theano和Torch。这三个框架各有所长。Caffe的用户界面是做得最好的也是最容易上手的,但模块都是固定的,扩展性不佳。而且只能处理有向无环图,这就意味着它不能处理recurrent neural network。(似乎有人说可以,但我还不确定)Theano的特色是能自动求导数。如果你想从底层自己实现反向传播算法,它会省去很多求导原创 2015-11-06 09:22:23 · 3615 阅读 · 1 评论 -
深度学习笔记(三)用Torch实现多层感知器
代码地址:https://github.com/vic-w/torch-practice/tree/master/multilayer-perceptron上一次我们使用了输出节点和输入节点直接相连的网络。网络里只有两个可变参数。这种网络只能表示一条直线,不能适应复杂的曲线。我们将把它改造为一个多层网络。一个输入节点,然后是两个隐藏层,每个隐藏层有3个节点,每个隐藏节点后面都跟一个非线原创 2015-11-06 12:22:31 · 11326 阅读 · 3 评论 -
Google是如何教会机器玩Atari游戏的
今年上半年,Google在Nature上发表了一篇论文:Human-level control through deep reinforcement learning。文章描述了如何让电脑自己学会打电子游戏。其中算法的输入只有游戏屏幕的图像和游戏的得分,在没有人为干预的情况下,电脑自己学会了游戏的玩法,而且在相当程度上超过了人类玩家的得分。Google到底是如何做到的呢?答案当然是深度学习了。原创 2015-12-04 16:58:38 · 12287 阅读 · 7 评论 -
深度学习笔记(五)用Torch实现RNN来制作一个神经网络计时器
本节代码地址https://github.com/vic-w/torch-practice/tree/master/rnn-timer现在终于到了激动人心的时刻了。我最初选用Torch的目的就是为了学习RNN。RNN全称Recurrent Neural Network(卷积神经网络),是通过在网络中增加回路而使其具有记忆功能。对自然语言处理,图像识别等方面都有深远影响。这次原创 2015-11-06 16:24:29 · 6317 阅读 · 5 评论
分享