深度学习入门-基于python的理论与实现(2)

本文深入探讨了感知器的理论与实现,包括其工作原理、如何表示简单的逻辑电路(如与门、与非门、或门),以及感知器的局限性和多层感知器的概念。通过Python代码展示了如何实现与门、与非门和或门,指出单层感知器无法表示异或门,而多层感知机通过叠加层解决了这一问题。


在这里插入图片描述

第二章:感知器(perceptron)

2.1 感知器是什么

感知器接受多个输入信号,输出一个信号。

如图是一个接收两个输入信号的感知器。
在这里插入图片描述

x 1 x_1 x1, x 2 x_2 x2是输入信号, y y y是输出信号, w 1 w_1 w1, w 2 w_2 w2是权重。

图中的圆圈称为“神经元”(或“节点”)。输入信号被送往神经元时,会被分别乘以固定的权重( w 1 x 1 w_1x_1 w1x1, w 2 x 2 w_2x_2 w2x2)。神经元会 计算传送过来信号的总和,只有当这个总和超过某个界限时,才会输出1。将这个界限称为阈值,用 θ \theta θ表示。

就上述内容用数学公式表示:
y = { 0 ( w 1 x 1 + w 2 x 2 ≤ θ ) 1 ( w 1 x 1 + w 2 x 2 > θ ) y= \begin{cases} 0 & (w_1x_1+w_2x_2 \leq \theta )\\ 1 & (w_1x_1+w_2x_2 > \theta ) \end{cases} y={01(w1x1+w2x2θ)(w1x1+w2x2>θ)

感知器的多个输入信号都有各自的权重,这些权重发挥控制各个信号的重要性的作用。也就是说,权重越大,对应该权重的信号的重要性越高。

2.2 简单的逻辑电路

2.2.1 与门

与门(AND gate)有两个输入和一个输出。下图是与门的真值表:
在这里插入图片描述

下面用感知机来表示与门。需要做的就是确定能满足上图的真值表的 w 1 w_1 w1 w 2 w_2 w2 θ θ θ的值。

那么,设定什么样的值才能制作出满足上图的条件的感知机呢? 实际上,满足上图的条件的参数的选择方法有无数多个。比如,当
( w 1 w_1 w1, w 2 w_2 w2, θ θ θ) = (0.5, 0.5, 0.7)时,可以满足上图的条件。此外,当( w 1 w_1 w1, w 2 w_2 w2, θ θ θ) 为(0.5,0.5, 0.8)或者(1.0, 1.0, 1.0)时,同样也满足与门的条件。设定这样的参数后,仅当 x 1 x_1 x1 x 2 x_2 x2同时为1时,信号的加权总和才会超过给定的阈值 θ θ θ

2.2.2 与非门和或门

与非门(NAND gate)颠倒了与门的输出。真值表如下:

x 1 x_1 x1 x 2 x_2 x2 y y y
001
101
011
110

只要把实现与门的参数值的符号取反, 就可以实现与非门。

或门是只要有一个输入信号是1,输 出就为1的逻辑电路。真值表如下:

x 1 x_1 x1 x 2 x_2 x2 y y y
000
101
011
111

如上所示,我们已经知道使用感知机可以表示与门、与非门、或门的逻辑电路。重要的一点是:与门、与非门、或门的感知机构造是一样的。 实际上,3个门电路只有参数的值(权重和阈值)不同。也就是说,相同构造的感知机,只需通过适当地调整参数的值,就可以变身为与门、与非门、或门。

2.3 感知器的实现

2.3.1 简单的实现

现在,我们用Python来实现刚才的逻辑电路。这里,先定义一个接收参数x1和x2的AND函数。

def AND(x1,x2):
    w1,w2,theta=0.5,0.5,0.7
    tmp=x1*w1+x2*w2
    if tmp <= theta:
        return 0
    elif tmp > theta:
        return 1

在函数内初始化参数w1、w2、theta,当输入的加权总和超过阈值时返回1, 否则返回0。我们可以确认一下输出结果是否真值表所示:

AND(0, 0) # 输出0 
AND(1, 0) # 输出0 
AND(0, 1) # 输出0 
AND(1, 1) # 输出1

这样就实现了与门。按照同样的步骤,也可以实现与非门和或门,不过对它们的实现稍作修改。

2.3.2 导入权重和偏置

刚才的与门的实现比较直接、容易理解,但是考虑到以后的事情,我们将其修改为另外一种实现形式。

在此之前,首先把之前2.1的式子的 θ θ θ换成 − b −b b,于是就可以用下面的式子来表示感知机的行为:
y = { 0 ( b + w 1 x 1 + w 2 x 2 ≤ 0 ) 1 ( b + w 1 x 1 + w 2 x 2 &gt; 0 ) y= \begin{cases} 0 &amp; (b+w_1x_1+w_2x_2 \leq 0 )\\ 1 &amp; (b+w_1x_1+w_2x_2 &gt; 0 ) \end{cases} y={01(b+w1x1+w2x20)(b+w1x1+w2x2>0)

2.1的式子和上面的式子虽然有一个符号不同,但表达的内容是完全相同的。此处, b b b称为偏置, w 1 w_1 w1 w 2 w_2 w2称为权重。

如上式所示,感知机会计算输入信号和权重的乘积,然后加上偏置,如果这个值大于0则输出1,否则输出0。

下面,我们使用NumPy,按上式的方式实现感知机。在这个过程中,我们用Python的解释器逐一确认结果。

>>> import numpy as np 
# 输入 
>>> x = np.array([0, 1])
# 权重     
>>> w = np.array([0.5, 0.5])
 # 偏置  
>>> b = -0.7                 
>>> w*x 
array([ 0. ,  0.5]) 
>>> np.sum(w*x) 
0.5 
>>> np.sum(w*x) + b 
-0.19999999999999996   
# 大约为-0.2(由浮点小数造成的运算误差)

如上例所示,在NumPy数组的乘法运算中,当两个数组的元素个数相同时, 各个元素分别相乘,因此 w ∗ x w*x wx的结果就是它们的各个元素分别相乘([0, 1] * [0.5, 0.5] => [0, 0.5])。之后,np.sum(w*x)再计算相乘后的各个元素的总和。 最后再把偏置加到这个加权总和上,就完成了上式的计算。

2.3.3 使用权重和偏置的实现

使用权重和偏置,可以像下面这样实现与门。

def AND(x1, x2):    
    x = np.array([x1, x2])    
    w = np.array([0.5, 0.5])    
    b = -0.7    
    tmp = np.sum(w*x) + b    
    if tmp <= 0:       
        return 0    
    else:       
        return 1

这里把 − θ −θ θ命名为偏置 b b b,但是注意,偏置和权重 w 1 w_1 w1 w 2 w_2 w2的作用是不一样的

具体地说, w 1 w_1 w1 w 2 w_2 w2是控制输入信号的重要性的参数,而偏置是调整神经元被激活的容易程度(输出信号为1的程度)的参数
比如,若b为−0.1,则只要输入信号的加权总和超过0.1,神经元就会被激活。但是如果b 为−20.0,则输入信号的加权总和必须超过20.0,神经元才会被激活。像这样,偏置的值决定了神经元被激活的容易程度。另外,这里我们将 w 1 w_1 w1 w 2 w_2 w2称为权重, 将b称为偏置,但是根据上下文,有时也会将b、 w 1 w_1 w1 w 2 w_2 w2这些参数统称为权重。

下面是与非门与或门的实现:

def NAND(x1n,x2):
    x=np.array([x1n,x2])
    # 权重与偏置与AND不同
    w=np.array([-0.5,-0.5])
    b=0.7
    tmp=np.sum(w*x)+b
    if tmp<=0:
        return 0
    else:
        return 1


def OR(x1,x2):
    x=np.array([x1,x2])
    w=np.array([0.5,0.5])
    b=-0.2
    tmp=np.sum(w*x)+b
    if tmp<=0:
        return 0
    else:
        return 1

2.4 感知器的局限性

2.4.1 异或门

异或的真值表如下:

x 1 x_1 x1 x 2 x_2 x2 y y y
000
101
011
110

仅当 x 1 x_1 x1 x 2 x_2 x2中的一方为1时你,才会输出1。要用感知机实现这个异或门,应该设定什么样的权重参数呢?

实际上,用前面介绍的感知器是无法实现这个异或门的。为什么用感知器可以实现与门、或门,却无法实现异或门呢?下面我们尝试通过画图来思考其中的原因。 首先,我们试着将或门的动作形象化。或门的情况下,当权重参数(b, w 1 w_1 w1, w 2 w_2 w2) = (−0.5, 1.0, 1.0)时,可满足或门的真值表条件。此时,感知器可用下面的式表示:
y = { 0 ( − 0.5 + x 1 + x 2 ≤ 0 ) 1 ( − 0.5 + x 1 + x 2 &gt; 0 ) y= \begin{cases} 0 &amp; (-0.5+x_1+x_2 \leq 0 )\\ 1 &amp; (-0.5+x_1+x_2 &gt; 0 ) \end{cases} y={01(0.5+x1+x20)(0.5+x1+x2>0)

上式表示的感知器会生成由直线−0.5 + x1 + x2 = 0分割开的两个空间。其中一个空间输出1,另一个空间输出0,如图所示:
在这里插入图片描述

或门在(x1,x2) = (0, 0)时输出0,在(x1,x2)为(0,1)、(1,0)、(1,1)时输出1。上图中,○表示0,△表示1。如果想制作或门,需要用直线将图中的○和△分开。实际上,刚才的那条直线就将这4个点正确地分开了。

那么,换成异或门的话会如何呢?能否像或门那样,用一条直线作出分割下面图中的○和△的空间呢?
在这里插入图片描述

可以发现,想要用一条直线将图中的○和△分开,无论如何都做不到。事实上, 用一条直线是无法将○和△分开的。

2.4.2 线性和非线性

上面图中的○和△无法用一条直线分开,但是如果将“直线”这个限制条件去掉,就可以实现了。

比如,我们可以像下图那样,作出分开○和△的空间。
在这里插入图片描述

感知器的局限性就在于它只能表示由一条直线分割的空间。上图这样弯曲的曲线无法用感知机表示。另外,由上图这样的曲线分割而成的空间称为非线性空间,由直线分割而成的空间称为线性空间

2.5 多层感知器

感知机不能表示异或门让人深感遗憾,但也无需悲观。实际上,感知机的绝妙之处在于它可以“叠加”。

2.5.1 已有门电路的组合

异或门可以通过下图所示的配置来实现。这里,x1和x2表示输入信号, y表示输出信号。x1和x2是与非门和或门的输入,而与非门和或门的输出则是与门的输入。

在这里插入图片描述

在这里插入图片描述

现在,我们来确认一下上图的配置是否真正实现了异或门。这里,把 s1作为与非门的输出,把s2作为或门的输出,填入真值表中。结果如图所示,观察x1、x2、y,可以发现确实符合异或门的输出。


在这里插入图片描述

2.5.2 异或门的实现

根据上面的配置,可以来实现异或:

def XOR(x1,x2):
    s1=NAND(x1,x2)
    s2=OR(x1,x2)
    y=AND(s1,s2)
    return y

这个异或函数会输出预期的结果:

XOR(0, 0) # 输出0 
XOR(1, 0) # 输出1 
XOR(0, 1) # 输出1 
XOR(1, 1) # 输出0

这样,异或门的实现就完成了。下面我们试着用感知机的表示方法(明确地显示神经元)来表示这个异或门,结果如图所示

在这里插入图片描述

如图所示,异或门是一种多层结构的神经网络。这里,将最左边的 一列称为第0层,中间的一列称为第1层,最右边的一列称为第2层。

上图所示的感知机与前面介绍的与门、或门的感知机形状不同。实际上,与门、或门是单层感知机,而异或门是2层感知机。叠加了多 层的感知机也称为多层感知机(multi-layered perceptron)。

在上图所示的2层感知机中,先在第0层和第1层的神经元之间进行 信号的传送和接收,然后在第1层和第2层之间进行信号的传送和接收,具体如下所示。

  1. 第0层的两个神经元接收输入信号,并将信号发送至第1层的神经元。
  2. 第1层的神经元将信号发送至第2层的神经元,第2层的神经元输出y。

像这样,在异或门的感知机中,通过这样的结构(2层结构),感知机得以实现异或门。这可以解释为“单层感知机 无法表示的东西,通过增加一层就可以解决”。也就是说,通过叠加层(加深层),感知机能进行更加灵活的表示。

### 基于Python深度学习入门理论实现的关键知识点 #### 1. 深度学习基础概念 深入理解神经网络的工机制对于掌握深度学习至关重要。这包括但不限于前馈神经网络、反向传播算法以及激活函数的选择等基本要素[^1]。 #### 2. PyTorch框架简介 PyTorch是一个开源的机器学习库,支持动态计算图构建方式,在研究和生产环境中都得到了广泛应用。其灵活性使得模型定义更加直观简洁,非常适合新手快速上手践。 #### 3. 数据预处理技巧 有效的数据清洗、转换及增强操能够显著提高最终模型性能。例如利用Pandas进行表格型数据分析处理;采用Matplotlib或Seaborn绘制可视化图表辅助探索性分析;借助Scikit-Learn完成特征工程任务如标准化缩放、独热编码等等。 #### 4. 构建简单的全连接层网络 通过编写少量代码即可创建一个多层感知机(MLP),这是最基础但也非常重要的一步。下面给出一段使用PyTorch搭建两层线性变换加ReLU非线性的例子: ```python import torch.nn as nn class SimpleNet(nn.Module): def __init__(self, input_dim=784, hidden_dim=500, output_dim=10): super(SimpleNet, self).__init__() self.fc1 = nn.Linear(input_dim, hidden_dim) self.relu = nn.ReLU() self.fc2 = nn.Linear(hidden_dim, output_dim) def forward(self, x): out = self.fc1(x) out = self.relu(out) out = self.fc2(out) return out ``` 这段代码展示了如何定义一个继承自`nn.Module`类的新模块,并实现了两个主要方法——初始化(`__init__()`)和前向传递逻辑(`forward()`)。其中包含了两次线性映射(即权重矩阵乘法加上偏置项),中间夹着一层ReLU激活单元来引入非线性特性。 #### 5. 训练过程概述 训练阶段涉及损失函数选取(比如交叉熵)、优化器配置(SGD/Adam等)还有批量大小设定等因素考量。此外还需注意设置合适的迭代次数以便充分拟合目标分布而不至于过拟合原始样本集。以下是一些常用参数调整建议: - **Batch Size**: 控制每次更新梯度所使用的样例数量; - **Learning Rate (LR)**: 影响权值更新幅度的速度因子; - **Epochs Number**: 总共重复遍历整个数据集多少轮次。 #### 6. 测试评估指标解释 当完成了上述准备工之后就可以着手验证模型效果了。常见的分类问题评测标准有准确率(Accuracy)、精确率(Precision)、召回率(Recall)及其综合衡量F1-Score等。这些统计量可以从预测结果对比真标签得出,进而判断当前方案优劣程度并据此出相应改进措施。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值