
Deep Learning
不跑步就等肥
这个作者很懒,什么都没留下…
展开
-
FCN-Pytorch实现源码阅读笔记
代码参考Github : https://github.com/wkentaro/pytorch-fcn1. _fast_histimport numpy as npdef _fast_hist(label_true, label_pred, n_class): mask = (label_true >= 0) & (label_true < n_class...原创 2020-02-29 11:11:17 · 2598 阅读 · 2 评论 -
Kaggle手写数字识别(Digit Recognizer)记录
竞赛地址 https://www.kaggle.com/c/digit-recognizer苦于学了cs231n和pytorch之后没有东西拿来练手,就去kaggle上找了一个入门竞赛,MNIST手写数字识别,这个比赛把MNIST数据集拆分成了42000的trainset和28000的testset。然后自己跟着cs231n的模式一步步写网络,pandas+numpy预处理数据,重写che...原创 2019-11-29 19:51:06 · 3190 阅读 · 0 评论 -
Pytorch搭建神经网络基本步骤(文末附pytorch实现AlexNet)
文章参考:http://pytorch123.com/SecondSection/neural_networks/cs231n assignment2 - http://cs231n.github.io/assignments2019/assignment2/文章目录整体流程1. 定义网络结构2. 前向传播3. 定义损失函数(Loss)4. 反向传播5. 更新权重实例-AlexNet-p...原创 2019-11-26 17:06:10 · 2007 阅读 · 0 评论 -
AlexNet中Local Response Normalization(局部响应归一化)个人理解
首先论文中已经有了公式的介绍,但是刚看的时候会觉得有些懵,先看看LRN的定义:第一眼看上去公式好像很复杂,我一开始也这么觉得。。。后来细看了两边之后发现好像跟某种公式有着差不多的结构,具体什么公式也不记得了,就觉得很像,然后比较好理解了,总之大概意思就是求某一个值在整体值中的占比。bi=ai/∑inai2 b_{i} = a_{i}/\sqrt {\sum^n_{i} a_{i}^2}bi...原创 2019-11-19 20:39:21 · 1760 阅读 · 3 评论 -
Pytorch tutorials学习笔记
每一段代码后都有跑出来的结果参考网址 https://pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html文章目录1. Neural Networks1.1 Define the network1.2 Loss Function1.3 Backprop1.4 Update the weights1. Neu...原创 2019-10-22 22:36:46 · 275 阅读 · 0 评论 -
【记录】为什么在CNN的Batch Norm中对C个channel进行归一化
下面是cs231n-assignment2中的Spatial Batch Norm的介绍中对于此处空间归一化的解释,为什么对shape为NCHW的图像数据进行Batch Norm时需要计算NHW维度的mean和varIf the feature map was produced using convolutions, then we expect every feature channel’s...原创 2019-09-18 19:04:31 · 580 阅读 · 0 评论 -
Stanford-CS231n-assignment2-Dropout
文章目录1- layers.py中dropout部分实现2- layer_utils.py加入的几个dropout层函数3- fc_net.py的修改,加入dropout判断4- 结果1- layers.py中dropout部分实现def dropout_forward(x, dropout_param): """ Performs the forward pass for (...原创 2019-09-10 22:37:53 · 377 阅读 · 0 评论 -
Stanford-CS231n-assignment2-BatchNormalization
文章目录1- layers.py1- layers.py原创 2019-09-03 17:20:58 · 714 阅读 · 0 评论 -
cs231n-18/19-assignment2源码阅读笔记
最近想自己做一些简单的比赛试一试,也算是学习的实践,但是感觉网上在Python对图像识别数据预处理的教程好像并不多,忽然想起cs231n的课程作业中都有现成的大量源码啊!!!所以想着通过阅读这些代码来强化Python的知识(Python好多不会的需要学习),然后直接把自己阅读过程中的理解注释到了代码中,也分享出来,这里直接以cs231n-18-19-assignment2的代码为例。文章目录一、...原创 2019-08-21 10:43:56 · 720 阅读 · 3 评论 -
Stanford-CS231n-assignment2-FullyConnectedNets
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Ma...原创 2019-08-20 18:51:07 · 979 阅读 · 0 评论 -
Stanford-CS231n-assignment1-features
其实就是前面写过的SVM和神经网络的验证部分,直接拿过来用就好了,就是神经网络的超参数需要自己调节以达到好的分类效果。1. SVM验证部分# Use the validation set to tune the learning rate and regularization strengthfrom cs231n.classifiers.linear_classifier impo...原创 2019-08-06 22:12:25 · 524 阅读 · 0 评论 -
Stanford-CS231n-assignment1-two_layer_net附中文注释
先记录一个很好用的画神经网络图的网站:http://alexlenail.me/NN-SVG/index.html然后因为对神经网络的几个层的名字到底应该标注在哪有点疑惑,现在看了几段代码才弄清楚,所以标注在图上记录一下,如下图(激活函数以ReLU为例),如果错误欢迎指正神经网络各层名上图中的神经网络可叫做双层(应该是双全连接层)神经网络或者单隐藏层(one hidden layer...原创 2019-08-01 22:50:36 · 1583 阅读 · 4 评论 -
Neural Networks and Deep Learning中How the bp algorithm works的一些记录与总结
本章的链接:http://neuralnetworksanddeeplearning.com/chap2.html1. 梯度下降的理解在神经网络的输出层(output layer)可以定义一个loss function,例如C,我们使用梯度下降法的目的就是使得C的值降低到最小。梯度的定义如下,而C是关于权重矩阵W以及偏置b的函数,因此可以求出其梯度,在梯度的负方向上C的值下降最...原创 2019-08-05 09:10:45 · 181 阅读 · 0 评论 -
Stanford-CS231n-assignment1-Softmax梯度推导及代码
下图是softmax的第一题,也就是循环法求梯度公式推导,推导中跟随一个特定的元素的前世今生,来展现整个softmax梯度的推导过程,其中字母有些混乱,i/j傻傻分不清楚,有多个地方都用到j,但代表的含义不尽相同:Softmax梯度推导1. softmax.pyfrom builtins import rangeimport numpy as npfrom random import...原创 2019-07-30 11:34:46 · 672 阅读 · 0 评论 -
Stanford-CS231n-assignment1-SVM及向量化梯度详解
首先贴代码,后面会着重讲解SVM的向量化求梯度,Q2. Linear_SVM.pyfrom builtins import rangeimport numpy as npfrom random import shufflefrom past.builtins import xrangedef svm_loss_naive(W, X, y, reg): """ S...原创 2019-07-09 22:35:16 · 1571 阅读 · 0 评论 -
Stanford-CS231n-assignment1-KNN及Jupyter Notebook配置
一. 配置我使用的是Anaconda带的Jupyter Notebook,先在http://cs231n.github.io/assignments2019/assignment1/下载assignment1的.zip文件后可以将其解压到Jupyter Notebook的本地工作目录下,然后就可以正常在Jupyter中写代码了。中间代码在import的时候遇到一个问题No Modual...原创 2019-07-03 22:14:20 · 524 阅读 · 0 评论