机器学习基础:神经网络——感知机

目录

1. 表示学习

2. 生物神经元 V.S. 人造神经元

3. 感知机

3.1 训练感知机

3.2 激活函数

3.3 一层感知机

3.4 多层感知机

3.4.1 隐藏层神经元数量选择

3.4.2 隐藏层如何学习参数

3.4.3 多层感知机的性质

3.4.4 多层感知机总结


1. 表示学习

表示学习(representation Learning)是神经网络的一个常见应用:

表示学习的基本思路,是找到对于原始数据更好的表达,以方便后续任务(比如分类)。机器学习中,同样的数据的不同表达,会直接决定后续任务的难易程度(换言之,表示方法的选择通常依赖于后续任务的需求),因此找到好的数据表示往往是机器学习的核心任务。

例如图像相关的任务,数据的特征维度太高(通常在几十万上百万的维度,因为图像的每个像素点都是一个特征)。

深度学习中常用embedding来对高维度数据进行处理,将其重新编码成维度较低的特征。

深度网络可以通过学习embedding后的特征来完成各种任务。

2. 生物神经元 V.S. 人造神经元

首先梦回高中生物——神经元:

输入信号,输出信号,各方输入信号加权取平均,如果超过某一个阈值就将信号传向下一个神经元

\vec{x}_i=<x_{i1},x_{i2},..., x_{in}>代表各方的输入组成的输入向量,b是常数偏置项bias,对这些量进行加权求和(参数的权重同样是一个向量\vec{w}=<w_1,...,w_n>\in \mathbb{R^n})然后通过一个激活函数activation\: \: function\: \: f这也是个可选的超参数,可以为神经元选用不同的激活函数,激活后的值是一个标量y_i\in \mathbb{R^n}继续传入下一个神经元;

这个过程中的超参数是f激活函数,需要学习的参数是\vec{w}b(b\equiv w_0)

形式化的数学表示为:

3. 感知机

感知机(Perceptron):

  • 感知机本质上就是只有单个神经元的神经网络
  • 一个感知机就是一个二元的线性分类器,形式化表示如下:

这里的阈值是0,也就是说只要input的加权和\geq 0那么感知机就输出1

3.1 训练感知机

训练感知机(Training Perceptron)是试图求算最佳的参数向量\vec{w}最小化训练误差

常用的方法是通过迭代(Iterative)的方式对训练集上进行反复训练。具体的算法可以如下表示:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值