贝叶斯公式在全连接神经网络权重的应用

本文探讨了如何使用梯度下降算法优化多层感知器的权重更新过程,通过实例展示了如何计算n4-n9的权重影响,并重点讲解了激活函数在神经网络中的作用。作者以三个数据集为例,逐步揭示了权重计算和偏置调整的关键步骤,适合深入理解神经网络工作原理的读者。
import numpy as np
import math

#三行为三组数据    
x = np.array([[1,  4,  3,  3,  2,  2,  3],
              [85, 76, 89, 64, 55, 98, 73],
              [2,  2,  3,  3,  1,  2,  3]])
                                                #x2 = np.array([100, 76, 89, 64, 55, 98, 73])
                                                #x3 = np.array([2, 2, 3, 3, 1, 2, 3])
t = np.array([])
y = np.array([]) 

sg = np.zeros(12)
w = np.ones(100)
w = w.reshape(10,10)

alp = 0.01
eps = 10e-5
e0 = e1 = e2 = 3

n = np.zeros(10)
b = np.zeros(10)

#求解 n4-n7 :
for i in range(4, 8):
    for j in range(1, 4):
        n[i] += x[j-1, 0] * w[i, j] 
        
#加上启动函数后求解:n8 -n9
for i in range (4,8):
    for j in range(1,3):
        b[i] = (1/(1+math.exp(x[i-1,j-1])))*n[i]
        
for i in range(8,10):
    for j in range(4,9):
        n[i] += w[i,j]*b[j]
        
for i in range (20):
    
    
    sg1 = (y[i]-t[i])*(1/(1+math.exp(x[i])))*(1-((1/(1+math.exp(x[i])))))*n4

print(n[i])


    

import numpy as np
n = np.ones(10)
w = np.ones(100)
w = w.reshape(10,10)

x = np.array([[1, 4, 3, 3, 2, 2, 3],
              [85, 76, 89, 64, 55, 98, 73],
              [2, 2, 3, 3, 1, 2, 3]])
for i in range(4,8):
    for j in range (1,3):
        
        n[i] += w[i,j]*x[j,0]
    print(n[i])
        

88.0
88.0
88.0
88.0
import math
a = 10e-4
a
0.001

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值