CS231N斯坦福计算机视觉公开课 03 - 神经网络和反向传播

CS231N斯坦福计算机视觉公开课 03 - 神经网络和反向传播

一、神经网络

1.输入与激活函数

  • 输入:不同的权重与输入值的乘积和 ∑ i = 0 w i x i \sum_{i=0}{w_ix_i} i=0wixi
  • sigmoid激活函数:将前步的输入做处理,缩放到一个0到1的范围里
  • ReLU激活函数: R e L U ( x ) = W 2 m a x ( 0 , W 1 x ) ReLU(x) = W_2max(0,W_1x) ReLU(x)=W2max(0,W1x),提取输入和0中的最大值,并作线性变化

在这里插入图片描述

  • 每一层的每一个神经元与上一层的全部神经元都做出链接,这样的层叫做全连接神经网络,也叫作多层感知机
  • 输出层的神经元个数表示的是输出的特征个数

在这里插入图片描述

假设输入为3072维的向量

  • 第一层有100个神经元,则第一层每一个神经元都有3072个权重,有100个偏置项
  • 第二层有10个神经元,则第二层的每一个神经元都有100个权重,有10个偏置项

在这里插入图片描述

二、反向传播

1.传播方式

  • 前向传播:根据公式计算
  • 反向传播:反向求导(链式求导法则)
  • 下图为计算过程,其中绿色为正向传播,红色为反向传播,图一为输入数字,图二为输入矩阵(向量)

在这里插入图片描述
在这里插入图片描述

深度学习-面向视觉识别的卷积神经网络,2016斯坦福大学公开课。课程介绍: 计算机视觉在社会中已经逐渐普及,并广泛运用于搜索检索、图像理解、手机应用、地图导航、医疗制药、无人机无人驾驶汽车等领域。而这些应用的核心技术就是图像分类、图像定位图像探测等视觉识别任务。近期神经网络(也就是“深度学习”)方法上的进展极大地提升了这些代表当前发展水平的视觉识别系统的性能。 本课程将深入讲解深度学习框架的细节问题,聚焦面向视觉识别任务(尤其是图像分类任务)的端到端学习模型。在10周的课程中,学生们将会学习如何实现、训练调试他们自己的神经网络,并建立起对计算机视觉领域的前沿研究方向的细节理解。最终的作业将包括训练一个有几百万参数的卷积神经网络,并将其应用到最大的图像分类数据库(ImageNet)上。我们将会聚焦于教授如何确定图像识别问题,学习算法(比如反向传播算法),对网络的训练精细调整(fine-tuning)中的工程实践技巧,指导学生动手完成课程作业最终的课程项目。本课程的大部分背景知识素材都来源于ImageNet Challenge竞赛。 主讲人: 李飞飞,斯坦福大学计算机科学系副教授。担任斯坦福大学人工智能实验室视觉实验室主任,主要研究方向为机器学习、计算机视觉、认知计算神经学。她在TED上的演讲,如何教计算机理解图片。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值