
AI
北漂奋斗者
人生没有绝对的公平,但是相对还是公平的。放在一个天平上,你得到的越多,也必须比别人承受更多。
展开
-
CVPR2019所有论文完整版的下载地址
CVPR2019的论文终于放出来了,今年的 CVPR 将于 6 月 16 日-20 日于美国加州的长滩市举行。本届 CVPR 大会共收到 5165 篇有效提交论文,比去年增加了 56%。大会接收了其中的 1300 篇,接收率约为 25.1% !其实官网给出的论文是1294篇,为了方便小伙伴们,我把所有的论文下载并打包上传至百度云,下面是提取链接:链接:https:/...原创 2019-06-12 15:07:49 · 3441 阅读 · 1 评论 -
网络结构
要想模拟人脑的能力,单一的神经元是远远不够的,需要通过很多神经元一起协作来完成复杂的功能。这样通过一定的连接方式或信息传递方式进行协作的神经元可以看作是一个网络,就是神经网络。人工神经网络由神经元模型构成,这种由许多神经元组成的信息处理网络具有并行分布结构。目前常用的神经网络结构有以下三种: 前馈网络 ...原创 2019-07-01 09:06:16 · 922 阅读 · 0 评论 -
神经元
人工神经元(Artificial Neuron),简称神经元(Neuron),是构成神经网络的基本单元,其主要是模拟生物神经元的结构和特性,接受一组输入信号并产出输出。 一个生物神经元通常具有多个树突和一条轴突。树突用来接受信息,轴突用来发送信息。当神经元所获得的输入信号的积累超过某个阈值时,它就处于兴奋状态,产生电脉冲。轴突尾端有许多末梢可以给其他个...原创 2019-06-30 22:00:05 · 4995 阅读 · 0 评论 -
典型的卷积神经网络
各层计算详解https://www.cnblogs.com/touch-skyer/p/9150039.html介绍几种广泛使用的典型深层卷积神经网络。(1)LeNet-5 (详解https://blog.youkuaiyun.com/happyorg/article/details/78274066) 基于LeNet-5 的手写数字识别系统在90 年...原创 2019-07-10 15:53:17 · 1292 阅读 · 0 评论 -
U-Net: Convolutional Networks for Biomedical Image Segmentation 解析
网络结构包括一个捕获上下文信息的收缩路径和一个用于精确定位的对称扩张路径,该网络能使用很少的图像就能够进行端到端的训练,并且在ISBI对电子显微镜下神经元结构进行的分割挑战方面胜过先前的最佳方法(滑动窗口卷积网络)。结构卷积层: 无填充卷积+relu+(2*2,stride=2)的max pooling卷积滤波器的数量每次下采样后double。patch: 上采样的时候...原创 2019-07-05 11:07:14 · 7075 阅读 · 0 评论 -
卷积神经网络中的参数学习
在卷积网络中,参数为卷积核中权重以及偏置。和全连接前馈网络类似,卷积网络也可以通过误差反向传播算法来进行参数学习。 在卷积神经网络中,主要有两种不同功能的神经层:卷积层和汇聚层。而参数为卷积核以及偏置,因此只需要计算卷积层中参数的梯度。 误差项的计算卷积层和汇聚层中...原创 2019-07-09 21:58:46 · 3039 阅读 · 1 评论 -
图像的上采样和小采样
上采样和下采样缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个: 1、使得图像符合显示区域的大小; 2、生成对应图像的缩略图。放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,可以显示在更高分...转载 2019-07-04 11:08:18 · 381 阅读 · 0 评论 -
卷积神经网络(二)
卷积神经网络一般由卷积层、池化层和全连接层构成。 在全连接前馈神经网络中,如果第l 层有个神经元,第l − 1 层有个神经元,连接边有× 个,也就是权重矩阵有 个参数。当m和n都很大时,权重矩阵的参数非常多,训练的效率会非常低。 如果采用卷积来代替全连接,第L 层的净输入z(L) 为第L−1 层活性值a(L−1)和滤波器w(L) ∈ Rm 的卷积,即 ...原创 2019-07-09 15:43:20 · 832 阅读 · 0 评论 -
反向传播算法
一文弄懂神经网络中的反向传播法——BackPropagation 最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大...转载 2019-07-03 17:44:27 · 116 阅读 · 0 评论 -
归一化 (Normalization)、标准化 (Standardization)和中心化/零均值化 (Zero-centered)
归一化: 1)把数据变成(0,1)或者(1,1)之间的小数。 主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处理,更加便捷快速。 2)把有量纲表达式变成无量纲表达式,便于不同单位或量级的指标能够进行比较和加...转载 2019-07-03 17:08:48 · 6028 阅读 · 0 评论 -
卷积神经网络(一)
总体概述:卷积神经网络(Convolutional Neural Network,CNN或ConvNet)是一种具有局部连接、权重共享等特性的深层前馈神经网络。卷积神经网络最早是主要用来处理图像信息。如果用全连接前馈网络来处理图像时,会存在以下两个问题: (1)参数太多 (2)局部不变性特征(尺度缩放、平移、旋转等操作不影响其语义信息,而全连接前...原创 2019-07-09 10:06:21 · 1739 阅读 · 0 评论 -
线性模型(线性判别函数和决策边界和 logistic 回归 )
我们主要介绍四种不同线性分类模型:logistic 回归、softmax 回归、感知器和支持向量机,这些模型区别主要在于使用了不同的损失函数。 线性模型(Linear Model)是机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型。给定一个d 维样本[, · · · , ]T,其线性组合函数为 ...原创 2019-06-24 22:24:22 · 4461 阅读 · 0 评论 -
主要介绍四种不同线性分类模型:SVM
支持向量机(Support Vector Machine,SVM)是一个经典两类分类算法,其找到的分割超平面具有更好的鲁棒性,因此广泛使用在很多任务上,并表现出了很强优势。 核函数 软间隔...原创 2019-06-27 09:22:41 · 4535 阅读 · 0 评论 -
Feature Pyramid Networks for Object Detection(一)
基本概述: 特征金字塔网络是识别系统中对于检测不同尺寸的目标是一种基本组件。但是因为特征金字塔的计算和存储密集,最近深度学习目标已经避免使用特征金字塔的表示。文中提出一种利用卷积神经网络固有的多尺寸金字塔层次等级来构造特征金字塔。开发一种具有横向连接的自上而下架构,用于所有尺寸上构建高级语义特征图。作为一种通用的特征提取器,Feature Pyramid Network(PFN)在...原创 2019-06-11 21:49:42 · 1129 阅读 · 0 评论 -
Softmax 回归
Softmax 回归(Softmax Regression),也称为多项(multinomial)或多类(multi-class)的logistic 回归,是logistic 回归在多类分类问题上的推广。 同样,我们贴一下wiki百科对softmax函数的定义: softmax is a generalization of logistic fun...原创 2019-06-25 10:39:14 · 270 阅读 · 0 评论 -
(AI基础算法入门)贝叶斯公式由浅入深大讲解
转载请注明来处,文章首发:贝叶斯公式由浅入深大讲解-AI基础算法入门 - math,数学专栏 - 周陆军的个人网站https://www.zhoulujun.cn/html/theory/math/2017_0913_8050.html1 贝叶斯方法 长久以来,人们对一件事情发生或不发生的概率,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大...转载 2019-06-10 21:33:27 · 2195 阅读 · 0 评论 -
Feature Pyramid Networks for Object Detection(接)
2. 相关工作 手工工程特征和早期的神经网络:SIFT特征是最初是在尺寸空间极值中提取的,并用于特征点匹配。方向梯度直方图(HOG特)征以及之后的尺度不变特征变换(SIFT),都是在整张图像金字塔上进行密集计算的。方向梯度直方图(HOG特)征以及之后的尺度不变特征变换(SIFT)已经被用于许多的作品中,用于图像分类、目标检测、人类姿态估计等。对快速地计算特征图像金字塔也有...翻译 2019-06-12 17:27:38 · 276 阅读 · 0 评论 -
前馈神经网络(Feedforward Neural Network,FNN)----最早发明的简单人工神 经网络
前馈神经网络的示例: 第0 层叫输入层,最后一层叫输出层,其它中间层叫做隐藏层。整个网络中无反馈,信号从输入层向输出层单向传播,可用一个有向无环图表示 。(每一层的神经元可以接收前一层神经元的信号,并产生信号输出到下一层)前馈神经网络也经常称为多层感知器(Multi-Layer Perceptron,MLP)。...原创 2019-07-01 10:03:29 · 27513 阅读 · 0 评论