
Deep Learning
CrazyVertigo
主修计算机视觉与深度学习,欢迎学习交流!
展开
-
图像语义分割数据集
CoCo数据集: http://mscoco.org/原创 2017-05-11 09:40:47 · 11428 阅读 · 4 评论 -
LeNet MNIST Tutorial
Training LeNet on MNIST with CaffeWe will assume that you have Caffe successfully compiled. If not, please refer to the Installation page. In this tutorial, we will assume that your Caffe installation原创 2016-12-17 10:08:04 · 608 阅读 · 0 评论 -
【深度学习技术】神经网络整体架构
神经网络整体架构神经网络的非线性通过激活函数引入非线性,提高神经网络模型的表达能力。原创 2016-12-11 22:45:40 · 702 阅读 · 0 评论 -
【深度学习技术】Softmax和SVM的区别与比较
本博客记录Softmax 和SVM分类器的学习过程,欢迎学习交流。目前解决图像分类问题,比较流行的方法是卷积神经网络上。这种方法主要有两部分组成:一个是评分函数(score function),它是原始图像数据到类别分值的映射。另一个是损失函数(loss function),它是用来量化预测分类标签的得分与真实标签之间一致性的。该方法可转化为一个最优化问题,在最优化过程中,将通过更新评分函数的参数来原创 2017-04-24 18:26:53 · 12094 阅读 · 0 评论 -
【数据集介绍】ImageNet介绍
ImageNet介绍原创 2017-06-14 09:36:42 · 75631 阅读 · 0 评论 -
深度学习工程师就业基本要求
杭州几个比较大的的公司要求原创 2017-06-26 19:00:27 · 9652 阅读 · 0 评论 -
【深度学习技术】卷积神经网络常用激活函数总结
本文记录了神经网络中激活函数的学习过程,欢迎学习交流。神经网络中如果不加入激活函数,其一定程度可以看成线性表达,最后的表达能力不好,如果加入一些非线性的激活函数,整个网络中就引入了非线性部分,增加了网络的表达能力。目前比较流行的激活函数主要分为以下7种:1.sigmoid2.tanh3.ReLu4.Leaky ReLu5.PReL...原创 2017-04-26 19:13:05 · 15535 阅读 · 0 评论 -
计算机视觉与深度学习公司
深度学习是大数据下最热门的趋势之一。上一个十年是互联网的时代,下一个十年将是人工智能的时代。国内已经产生大量的人工智能公司,分布在不同的领域。今年是人工智能的元年。人脸识别商汤科技 http://www.sensetime.com/旷视科技 https://www.megvii.com/face++ https://www.faceplusplus.com.cn/云从科技 http://ww原创 2016-12-18 11:26:05 · 18716 阅读 · 2 评论 -
DenseNet
DenseNet原创 2017-11-01 19:34:21 · 652 阅读 · 0 评论 -
Keras教程
Keras教程原创 2018-01-03 19:37:45 · 1044 阅读 · 1 评论 -
Intersection over Union
Intersection over UnionIoU代码实现方式:代码块代码块语法遵循标准markdown代码,例如:# import the necessary packagesfrom collections import namedtupleimport numpy as npimport cv2# define the `Detection` objectD原创 2018-01-08 13:07:47 · 665 阅读 · 0 评论 -
检测算法的指标学习
【YOLO学习】召回率(Recall),精确率(Precision),平均正确率(Average_precision(AP) ),交除并(Intersection-over-Union(IoU))https://blog.youkuaiyun.com/hysteric314/article/details/54093734...原创 2018-05-16 18:36:55 · 889 阅读 · 0 评论 -
【深度学习技术】手把手教你理解梯度下降法
什么是梯度下降法?高等数学告诉我们,梯度方向表示函数增长速度最快的方向,那么他的相反方向就是函数减少速度最快的方向。对于机器学习模型优化的问题,当我们需要求解最小值的时候,朝着梯度下降的方向走,就能找到最优值。凸函数例如求解下面这个函数的最小值:# -*- coding: utf-8 -*-"""Created on Fri Dec 23 09:05:43 2016@author: CrazyV原创 2016-12-23 14:14:54 · 2236 阅读 · 0 评论 -
【深度学习技术】python 反向传播求梯度
反向传播当有激活函数的时候传播的方式如下:复合表达式、链式法则、反向传播链式法则:将偏导数相乘。对于一个符合表达式:# -*- coding: utf-8 -*-"""Created on Fri Dec 23 17:24:24 2016@author: CrazyVertigo"""import mathx = 3 # 例子数值y = -4 # 前向传播 sigy = 1.0 / (1原创 2016-12-23 19:27:04 · 1944 阅读 · 0 评论 -
VOC 数据集笔记
官网地址:http://cvlab.postech.ac.kr/~mooyeol/pascal_voc_2012/Visual Object Classes Challenge 2012 (VOC2012)VOC2012数据集有17215张图片数据,可以用来分类,检测和分割。1.Classification/Detection Competitions2.Segmentation Competiti原创 2017-05-12 09:33:24 · 592 阅读 · 0 评论 -
Instance Segmentation 比 Semantic Segmentation 难很多吗?
https://www.zhihu.com/question/51704852原创 2017-05-06 10:59:59 · 1086 阅读 · 0 评论 -
CS231 Lecture 1: Introduction
20161218 学习CS231深度学习Andrej Karpathy 大神 http://cs.stanford.edu/people/karpathy/Python 快速入门 最好的教程https://zhuanlan.zhihu.com/p/20878530?refer=intelligentunit原创 2016-12-19 13:34:43 · 639 阅读 · 0 评论 -
Batch Normalization
https://mlnote.com/2016/12/20/Neural-Network-Batch-Normalization-and-Caffe-Code/ http://geek.youkuaiyun.com/news/detail/160906原创 2017-04-27 18:31:52 · 355 阅读 · 0 评论 -
深度学习数据集下载
聚数力: https://zhuanlan.zhihu.com/p/25138563原创 2017-05-06 08:57:36 · 2385 阅读 · 0 评论 -
深度学习与卷积神经网络学习
百度贴吧:最简单的弄懂反向传播、正向传播基本的原理计算过成原创 2016-11-20 15:27:13 · 874 阅读 · 0 评论 -
好玩的数据集下载
好玩的数据下载链接地址国内数据:链接:http://pan.baidu.com/s/1i5nyjBn 密码:26bm好玩的数据集:链接:http://pan.baidu.com/s/1bSDIEi 密码:25zr微软数据:链接:http://pan.baidu.com/s/1bpmo6uV 密码:286q微博数据集:链接:http://pan.baidu.com/s/1jHCOwCI 密码:x原创 2016-12-24 10:37:26 · 2393 阅读 · 2 评论 -
【深度学习技术】Batch Normalization讲解
Batch Normalization批量归一化技术出现在2015年。 机器学习领域有个很重要的假设,独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型,能够在测试集获得的效果的一个基本保障。而BN就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。Mini-Batch SGD**优点**:梯度更新方向比较准确,并行计算速度比较快。 Mini-原创 2017-03-05 15:57:56 · 2191 阅读 · 0 评论 -
【深度学习技术】LRN 局部响应归一化
LRN(Local Response Normalization) 局部响应归一化笔记本笔记记录学习 LRN(Local Response Normalization),欢迎学习交流。侧抑制(lateral inhibition)计算公式Hinton在2012年的Alexnet网络中给出其具体的计算公式如下:公式看上去比较复杂,但理解起来非常简单。i表示第i个核在位置(x,y)运用激活函数ReLU后原创 2017-04-24 16:41:56 · 44456 阅读 · 15 评论 -
传统BP vs CNN
传统BP vs CNN原创 2016-12-01 22:28:33 · 3821 阅读 · 0 评论 -
CS231n 笔记汇总
CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,目前大家说CS231n,大都指的是2016年冬季学期(一月到三月)的最新版本。原创 2016-12-11 09:55:37 · 11611 阅读 · 0 评论