
深度学习
牛板筋不筋
温故而知新
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Anaconda 安装 pytorch
安装顺序:1 NVIDIA Control Panel(显卡控制面板)2 Visual Studio 2019(先安装这个,再安装下面的)3 CUDA(GPU并行计算框架)4 cuDNN(深度学习加速库)5 Pytorch安装参考:CUDA Toolkit 10.2 Downloadhttps://developer.nvidia.com/cuda-10.2-download-archive?target_os=Windows&target_arch=x86_6.原创 2021-02-24 15:46:19 · 374 阅读 · 0 评论 -
Github_Cnn
from __future__ import divisionimport osimport numpy as npimport pandas as pdfrom sklearn.model_selection import train_test_splitimport skimage.transformimport skimage.utilfrom skimage.io im...原创 2020-04-20 09:06:22 · 348 阅读 · 2 评论 -
深度学习知识点总结(一)
目录:1编译 2训练集 验证集 测试集之间关系3Python 中list集合如何判断是否为空 4tensorflow pytorch 区别1编译 java语言的"编译期"分为前端编译和后端编译两个阶段。前端编译是指把*.java...原创 2019-08-17 15:33:43 · 801 阅读 · 0 评论 -
CNN
流程:1:CNN结构很不一样, 输入是一个二维的神经元 (28x28):2:28x25, 5x5 => 24x243:Feature map: 从输入层转化到输出层(可以有多个,这里选择了3个)4:浓缩神经网聚的代表性, 减小尺寸:24x24 , 2x2 pooling => ...原创 2019-08-28 11:28:29 · 116 阅读 · 0 评论 -
CNN实现
代码调用NetWork3#import mnist_loaderimport network3from network3 import Networkfrom network3 import ConvPoolLayer,FullyConnectedLayer,SoftmaxLayerimport numpy as npimport pandas as pdtraining_da...原创 2019-08-28 11:33:36 · 488 阅读 · 1 评论 -
RBM
Restricted Boltzmann Machine:Geoff Hinton发明降低维度, 分类, 回归, 特征学习非监督学习(unsupervised learning)plot_rbm_logistic_classfica.py :对数据直接扩大5倍并进行处理# Authors: Yann N. Dauphin...原创 2019-08-28 13:21:08 · 498 阅读 · 0 评论 -
Deep Brief Network 和 Autoencoder
一RBM、Deep Brief Network 和 Autoencoder区别一、RBM1、定义【无监督学习】RBM记住三个要诀:1)两层结构图,可视层和隐藏层;【没输出层】2)层内无连接,层间全连接;3)二值状态值,前向反馈和逆向传播求权参。定义如下:一般来说,可见层单元用来描述观察数据的一个方面或一个特征,而隐藏层单元的意义一般来说并不明确,可以看作特征提取层。比较通俗解释...原创 2019-08-28 13:27:27 · 900 阅读 · 0 评论 -
深度学习知识点总结(二)
一:代码调试1:TypeError: 'zip' object is not subscriptable原代码:for dog,cat in zip(dp.dogs,dp.cats)[:1000]:报错:TypeError: 'zip' object is not subscriptable解决方法:使用list包装zip对象,如下,for dog,cat in lis...原创 2019-08-28 17:31:18 · 383 阅读 · 0 评论 -
人工智能主流学习
机器学习、深度学习、强化学习、迁移学习 人工智能主流学习 名字 理解 解决问题 局限 机器学习 一切通过优化方法挖掘数据中规律的学科。 比较流行通过集成学习构建并结合多个机器...原创 2019-08-29 11:05:15 · 175 阅读 · 0 评论 -
基于ubuntu 无法import Theano
出现问题:pip is configured with locations that require TLS/SSL, however the ssl module in Python is not available.Could not fetch URL https://pypi.org/simple/pip/: There was a problem confirming the s...原创 2019-08-17 15:08:01 · 213 阅读 · 0 评论 -
基于Ubuntu安装numpy scipy Theano
工具: Oracle Virtual Box5.2.22 Ubuntu14.4 Python3.7.0工具链接:链接:https://pan.baidu.com/s/1LOsGb-BjWEsIhcsZl8bvBg提取码:4bb0目标:安装Numpy、Scipy、TheanoNu...原创 2019-08-09 17:27:41 · 421 阅读 · 0 评论 -
cross-entropy
定义 cross-entropy函数以前的Cost 函数对比与总结补充:利用cross-entropy cost代替quadratic cost来获得更好的收敛 ——说白了,就是cross-entropy cost比quadratic ...原创 2019-08-25 11:56:56 · 618 阅读 · 0 评论 -
Softmax和Overfitting
补充:1.softmax初探在机器学习尤其是深度学习中,softmax是个非常常用而且比较重要的函数,尤其在多分类的场景中使用广泛。他把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分类的概率之和也刚好为1。首先我们简单来看看softmax是什么意思。顾名思义,softmax由两个单词组成,其中一个是max。对于max我们都很熟悉,比如有两个变量a,b。如果a>b,...原创 2019-08-25 12:03:43 · 287 阅读 · 0 评论 -
Regulazition__L1、Regulazition__L2和Dropout(减小overfitting)
Regulazition__L1、Regulazition__L2Dropout人工扩大训练集原创 2019-08-25 15:03:25 · 348 阅读 · 0 评论 -
神经网络参数hyper-parameters选择
总体策略:从简单的出发: 开始实验一:如: MNIST数据集, 开始不知如何设置, 可以先简化使用0,1两类图, 减少80%数据量, 用两层神经网络[784, 2] (比[784, 30, 2]快)更快的获取反馈: 之前每个epoch来检测准确率, 可以替换为每1000个图之后, 或者减少validation set的...原创 2019-08-25 15:57:04 · 488 阅读 · 0 评论 -
初始化w和b的方法、cost函数理解
初始化w和b的方法 def default_weight_initializer(self): self.biases = [np.random.randn(y, 1) for y in self.sizes[1:]] self.weights = [np.random.randn(y, x)/np.sqrt(x) ...原创 2019-08-25 16:06:33 · 326 阅读 · 0 评论 -
深度神经网络中的难点
一:消失的gradient问题 (vanishing gradient problem)>>> import mnist_loader>>> training_data, validation_data, test_data = \... mnist_loader.load_data_wrapper()>>> import ne...原创 2019-08-25 17:01:36 · 796 阅读 · 0 评论 -
用ReL解决VanishingGradient问题
原创 2019-08-25 17:04:35 · 133 阅读 · 0 评论 -
SGD
Stochastic Gradient Descent 原理 C: cost w: weight 权重 b: bias 偏向 n: 训练数据集实例个数 x: 输入值 a: 输出值 (当x是输入时) ||v||: 向量的le...原创 2019-08-17 14:38:41 · 176 阅读 · 0 评论 -
BP(深度学习重写)
深度学习(左边)与机器学习(右边)的区别,主要是总结了4个方程代码流程按照下面来写 ...原创 2019-08-25 11:40:01 · 292 阅读 · 0 评论