一个简单的神经网络例子

这篇博客通过一个简单的神经网络例子,介绍其搭建过程和可视化方法,包括两个关键步骤,帮助读者深入理解神经网络的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

神经系统的搭建



import tensorflow as tf
import numpy as np
import matplotlib,pylab as plt

def add_layer(input,in_size,out_size,activation_function = None):
    Weights = tf.Variable(tf.random_normal([in_size,out_size]))
    biases = tf.Variable(tf.zeros([1,out_size])+0.1)
    Wx_plus_b = tf.matmul(input,Weights)+biases
    if activation_function is None:
        outputs = Wx_plus_b
    else:
        outputs = activation_function(Wx_plus_b)
    return outputs

#输入层到神经层
x_data = np.linspace(-1,1,300)[:,np.newaxis]   #产生等差数列
noise = np.random.normal(0,0.05,x_data.shape)
y_data = np.square(x_data)-0.5+noise               #对x_data进行平方
xs = tf.placeholder(tf.float32,[None,1])
ys = tf.placeholder(tf.float32,[None,1])

#神经层到输出层
l1 = add_layer(xs,1,10,activation_function=tf.nn.relu)
prediction = add_layer(l1,10,1,activation_function=None)

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))   #将每个y_data-prediction值取平方,然后求和后去平均值

tr
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值