
深度学习
行走在视界的边缘
这个作者很懒,什么都没留下…
展开
-
tensorflow+cuda+linux mint开发环境搭建
cuda安装在ubantu或者linux mint上面安装cuda时,首先要进入系统管理,然后进入驱动管理器,更新驱动(Nvidia推荐)。首先安装pip:输入命令行sudo apt-get install python-pip python-dev安装自带gpu的tensorflow版本(0.7)sudo pip install http://7u2rod.com1.z0原创 2017-02-05 20:49:12 · 1770 阅读 · 0 评论 -
Caffe + linux mint17.3 + CUDA 7.5 新手安装配置指南
PS:为了方便大家使用,我提供一个百度云盘,用于分享部分安装过程中需要用到的软件包和链接地址(所有软件包仅供学术交流使用,请大家尽量去官网下载。)。链接: http://pan.baidu.com/s/1c2lZAes 密码: tmch简单介绍一下:Caffe,一种Convolutional Neural Network的工具包,和Alex的cuda-convnet功能类似,但各有特点。都转载 2017-02-05 21:13:52 · 1634 阅读 · 0 评论 -
卷积神经网络C++实现源码阅读
如何在C++中实现一个神经网络类?主要有四个不同的类需要我们来考虑:层 - layers层中的神经元 - neurons神经元之间的连接 - connections连接的权值 - weights这四类都在下面的代码中体现, 集中应用于第五个类 - 神经网络(neural network)上. 它就像一个容器, 用于和外部交流的接口. 下面的代码大量使用了STL的vector转载 2017-02-06 10:48:09 · 11228 阅读 · 0 评论 -
卷积神经网络简介
自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于CNN的感触。先明确一点就是,Deep Learning是全部深度学习算法的总称,CNN是深度学习算法在图像处转载 2017-02-07 20:19:51 · 382 阅读 · 0 评论 -
卷积神经网络——反向传播算法
神经网络的训练过程,就是通过已有的样本,求取使代价函数最小化时所对应的参数。代价函数测量的是模型对样本的预测值与其真实值之间的误差,最小化的求解一般使用梯度下降法(Gradient Decent)或其他与梯度有关的方法。其中的步骤包括:初始化参数。求代价函数关于参数的梯度。根据梯度更新参数的值。经过迭代以后取得最佳参数,从而完成神经网络的训练。 其中最重要的步骤就是转载 2017-02-07 20:21:02 · 4091 阅读 · 0 评论 -
卷积神经网络常见基本问题
首先带着以下五个问题阅读:1.每个图如何卷积: (1)一个图如何变成几个图? (2)卷积核如何选择?2.节点之间如何连接?3.S2-C3如何进行分配?4.16-120全连接如何连接?5.最后output输出什么形式?① 各个层解释: 我们先要明确一点:每个层有多个Feature Map,每个Feature Map通过一转载 2017-02-07 20:22:34 · 4858 阅读 · 0 评论