
神经网络
文章平均质量分 91
Vinicier
计算机专业学生,爱学习,爱技术爱,交朋友 :)
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
梯度下降法与反向传播
梯度下降法与反向传播主要内容:梯度下降法 最优化 梯度下降 反向传播 梯度与偏导 链式法则 直观理解 Sigmoid 例子 1. 梯度下降(Gradient descent)初始权重不要都置为0,可用高斯分布。 随机初始化的目的是使对称失效。如果所有权重初始化为相同初始值,那么所有的隐藏层单元最终会得到与输入值相关的、相同的函数。import numpy as np W = np.random.ra原创 2017-11-09 20:16:02 · 15310 阅读 · 2 评论 -
卷积神经网络(CNN)学习笔记
卷积神经网络(CNN)Keywords:常用网络:LeNet5 、AlexNet VGGNet、 GoogleNet、 ResNet、DenseNetfilter sizestripepadding参数共享机制fine tuning输入层、卷积层、激励层、池化层、全连接层、Softmax 输出层一般CNN结构依次为:一个CNN 层级结构示意图:卷积层:一组固定的权重和不同窗口内数据做内积,就是卷积。原创 2017-11-10 15:38:02 · 1476 阅读 · 0 评论 -
图像语义分割
图像语义分割图像语义分割 (Image semantic segmentation)1. N-cut 方法N-cut(Normalized cut): 早期一种图划分方法,它的思想主要是通过像素和像素之间的关系权重来综合考虑,根据给出的阈值,将图像一分为二。将像素信息简单描述为距离差,根据距离差来划分图像示例如下图:在实际运用中,每运行一次 N-cut,只能切割一次图片,为了分割出图像上的多个物体,原创 2017-11-15 16:30:11 · 2301 阅读 · 1 评论