神经网络与机器学习问题解析

1、考虑异或函数的情况,其中两个点{(0, 0), (1, 1)}属于一个类别,另外两个点{(1, 0), (0, 1)}属于另一个类别。展示如何使用ReLU激活函数分离这两个类别。

可构建一个两层神经网络,输入层有两个神经元对应输入的两个特征,隐藏层使用ReLU激活函数,输出层使用线性激活函数。

设输入向量为[x₁, x₂],隐藏层有两个神经元,权重矩阵W₁和偏置向量b₁,输出层权重向量W₂和偏置b₂。

### 隐藏层计算
对于隐藏层第一个神经元,计算:

z₁₁ = W₁₁₁ * x₁ + W₁₂₁ * x₂ + b₁₁

经过ReLU激活得:

a₁₁ = ReLU(z₁₁)


对于隐藏层第二个神经元,计算:

z₁₂ = W₁₁₂ * x₁ + W₁₂₂ * x₂ + b₁₂

经过ReLU激活得:

a₁₂ = ReLU(z₁₂)


### 输出层计算
输出层计算:

z₂ = W₂₁ * a₁₁ + W₂₂ * a₁₂ + b₂


通过调整权重和偏置,如:
- W₁ = [[1, -1], [-1, 1]]
- b₁ = [0, 0]
- W₂ = [1, 1]
- b₂ = -0.5

可使:
- {(0, 0), (1, 1)} 输出为负
- {(1, 0), (0, 1)} 输出为正

从而分离两类。

2、使用自编码器进行非负矩阵分解:设D是一个具有非负元素的n×d数据矩阵。说明如何通过使用一个具有d个输入和输出的自编码器架构,将D近似分解为两个非负矩阵U和V,即D ≈ UVᵀ。[提示:在隐藏层选择合适的激活函数,并修改梯度下降更新。]

可以在隐藏层使用非线性激活函数来施加非负性,以模拟非负矩阵分解。例如考虑一个具有单个隐藏层的自编码器,在隐藏层使用 Sigmoid 单元,输出层为线性层。

若 $ U $ 是应用了非线性激活函数 $ \Phi(\cdot) $ 的隐藏层输出,则:

$$
U = \Phi(DW^\top)
$$

如果输出层是线性的,整体分解形式仍为:

$$
D \approx UV^\top
$$

这里可以通过 $ U’ = DW^\top $($ D $ 的线性投影),将分解写为:

$$
D \approx \Phi(U’)V^\top
$$

这是一种不同类型的非线性矩阵分解。

对于梯度下降更新,由于使用了共享权重,在训练时需要对反向传播算法做一些更改。做法是:

  1. 先假装权重不绑定,进行正常的反向传播来计算梯度;
  2. 然后将相同权重不同副本的梯度相加,以计算梯度下降步骤。

3、证明感知机、Widrow - Hoff学习、支持向量机(SVM)和逻辑回归的随机梯度下降更新都具有形式W ⇐W(1 −αλ) + αy[δ(X, y)]X。这里,对于最小二乘分类,错误函数δ(X, y)为1 −y(W · X);对于感知机/SVM,它是一个指示变量;对于逻辑回归,它是一个概率值。假设α是学习率,且y ∈{−1, +1}。写出每种情况下δ(X, y)的具体形式。

  1. 感知机
    $ \delta(X, y) = I(y(W \cdot X) < 1) $,其中 $ I(\cdot) $ 是指示函数,当条件满足时取值为 1,否则为 0。

  2. Widrow-Hoff 学习
    $ \delta(X, y) = 1 - y(W \cdot X) $。

  3. 支持向量机(SVM)
    $ \delta(X, y) = I(y(W \cdot X) < 1) $,其中 $ I(\cdot) $ 是指示函数,当条件满足时取值为 1,否则为 0。

  4. 逻辑回归
    对于训练数据,设
    $$
    \hat{y}_i = P(y_i = 1) = \frac{1}{1 + \exp(-W \cdot X_i)}
    $$
    $ \delta(X, y) $ 与这个概率相关,表示错误分类的概率。

4、讨论为什么在使用通过与雅可比矩阵相乘来对任意函数进行反向传播这种以矩阵为中心的方法时必须要小心。[提示:计算关于 sigmoid 函数的雅可比矩阵]

使用矩阵中心方法时必须小心,因为在反向传播中,层间的更新涉及矩阵乘法,就像重复标量乘法不稳定一样,重复矩阵乘法也不稳定。

例如在使用 sigmoid 激活函数时,其导数最大值为 0.25,经过多层反向传播后,梯度更新幅度会大幅下降,导致早期层的更新远小于后期层,出现 梯度消失问题

若尝试使用更大梯度的激活函数和更大的权重初始化来解决该问题,又可能导致

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值