Lecture 7 Deep Learning for NLP: Feedforward Networks

Feedforward Neural Networks Basics

Deep Learning

  • A branch of machine learning 机器学习的一个分支

  • Re-branded name for neural networks 神经网络的重命名

  • Deep: Many layers are chained together in modern deep learning models 深度:现在深度学习模型中的链式链接的多层

  • Neural Networks: Historically inspired by the way computation works in the brain 神经网络:历史上受大脑计算方式的启发

    • Consists of computation units called neurons 由称为神经元的计算单元组成

Feedforward Neural Network 前馈神经网络

  • Also called multilayer perceptron 也被称为多层感知机

  • E.g. of architecture: 架构示例

    在这里插入图片描述

  • Each arrow carries a weight, reflecting its importance 每个箭头都会携带一个权重,以反应其重要性

  • Certain layers have non-linear activation functions 某些层具有非线性的激活函数

Neuron 神经元

  • Each neuron is a function: 每个神经元是一个函数

    • Given input x, compute real-value h: 给定输入x,计算实值h



    在这里插入图片描述

    • Scales input (with weights, w) and adds offset (bias, b) 通过权重w缩放输入并添加偏移量(偏置,b
    • Applies non-linear function, such as logistic sigmoid, hyperbolic sigmoid(tanh), or rectified linear unit 应用非线性函数,如逻辑sigmoid、双曲sigmoid(tanh)或修正线性单元
    • w and b are parameters of the model wb 是模型的参数
  • Typically hava several hidden units 通常有几个隐藏单元. E.g.

    • Each with its own weights wi, and bias terms bi 每个单元都有自己的权重 wi,和偏置项 bi

    • Can be expressed using matrix and vector operators 可以使用矩阵和向量运算符表示:

    • Where is a matrix comprising the weight vectors and 是一个包含权重向量的矩阵 is a vector of all bias terms 是所有偏置项的向量

    • Non-linear function applied element-wise 非线性函数逐元素应用

Output Layer 输出层

  • For binary classification problem: Sigmoid Activation Function 对于二元分类问题:Sigmoid 激活函数

  • Multi-class classification problem: Softmax Activation Function ensures probab

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值