Neural Network 神经网络

该博客介绍了如何构建一个基础的三层神经网络模型,采用Sigmoid激活函数。通过前向传播和反向传播,模型在迭代过程中不断调整权重,降低误差。最终,随着迭代次数增加,误差逐渐减小,表明模型训练有效。完整代码已上传至Github。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Neural Network 神经网络

  • 本案例将介绍基础的三层神经网络,神经网络非常重要的一点便是激活函数。本次我们将使用Sigmoid函数,在前向传播时需要激活函数,而在反向传播时同样需要用到激活函数。
  • 神经网络模型如下:

请添加图片描述

  • 代码实现
import numpy as np


def sigmoid(x, deriv=False):
    if deriv == True:
        return x * (1 - x)
    return 1 / (1 + np.exp(-x))


x = np.array([[0, 0, 1],
              [0, 1, 1],
              [1, 0, 1],
              [1, 1, 1],
              [0, 0, 1]]
             )
# print(x.shape)

y = np.array([[0],
              [1],
              [1],
              [0],
              [0]]
             )
# print(y.shape)

np.random.seed(1)

w0 = 2 * np.random.random((3, 4)) - 1
w1 = 2 * np.random.random((4, 1)) - 1

# print(w0)

for j in range(50000):
    l0 = x
    l1 = sigmoid(np.dot(l0, w0))
    l2 = sigmoid(np.dot(l1, w1))
    l2_error = y - l2
    # print(l2_error.shape)
    if (j % 10000) == 0:
        print('Error' + str(np.mean(np.abs(l2_error))))
    l2_delta = l2_error * sigmoid(l2, deriv=True)
    # print(l2_delta.shape)
    l1_error = l2_delta.dot(w1.T)
    l1_delta = l1_error * sigmoid(l1, deriv=True)

    w1 += l1.T.dot(l2_delta)
    w0 += l0.T.dot(l1_delta)


  • 运行结果
    在这里插入图片描述

  • 从运行结果可以看出,Error的值随着迭代次数的增加在不断减小,这说明我们的神经网络模型构建成功。

源码获取

  • QQ 2985983009
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值