手动实现一个简单的神经网络

本文详细介绍了使用Python和NumPy从零开始实现一个简单的神经网络,包括sigmoid激活函数的定义、权重初始化、前向传播和反向传播过程。通过迭代训练,神经网络能够逐渐减少预测误差,实现对输入数据的准确预测。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先定义sigmoid函数

import numpy as np
def sigmoid(x,deriv = False):#前向传播
    if (deriv ==True):#反向传播
        return x*(1-x)#sigmoid求导注意传入的参数为sigmodid函数
    return 1/(1+np.exp(-x))

给初值和标签

x = np.array([[0,0,1],
             [0,1,1],
             [1,0,1],
             [1,1,1],
             [0,0,1]]
)
print(x.shape)
y = np.array([[0],
              [1],
              [1],
              [0],
              [0]])
print(y.shape)

初始化w0和w1

np.random.seed(1)
w0 = 2 * np.random.random((3,4)) -1#初始值在(0,1)乘以2在(0,2),再减去1在(-1,1)之间
w1 = 2 * np.random.random((4,1)) -1
print(w0)

前向传播和反向传播

for j in range(60000):
    #前向传播
    l0 = x #输入层
    l1 = sigmoid(np.dot(l0,w0))#中间层,前向传播sigmoid不需要其他参数
    l2 = sigmoid(np.dot(l1,w1))#输出层
    #反向传播
    #(y-l2)^2/2 均方误差当做目标函数,求导得y-l2,当前的错误有多大shape为(5,1)
    l2_error = y - l2
    if (j%10000) == 0:
        print('Error'+str(np.mean(np.abs(l2_error))))
    #计算w1对l2的误差做了多少贡献shape为(5,1),l2_error相当于一个误差权重    
    l2_delta = l2_error * sigmoid(l2,deriv=True)
    #拿这个误差乘以w1自身的转置(5,1)x(1,4)就是l1的误差权重
    l1_error = l2_delta.dot(w1.T)
    l1_delta = l1_error * sigmoid(l1,deriv=True)
    
    w1 += l1.T.dot(l2_delta)
    w0 += l0.T.dot(l1_delta)

输入层5x3,w0为3x4,l1层5x4,w1为4x1,l2层5x1
在这里插入图片描述
反向传播
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值