tensorflow-2day简单两层神经网络(全连接)

本文通过Mooc慕课网北京大学曹老师的课程,详细介绍了使用TensorFlow构建两层全连接神经网络的过程。从随机生成权重到定义前向传播过程,再到会话计算结果,深入浅出地讲解了神经网络的构建与运行。并对比了两种不同的输入定义方式,一种是直接定义输入,另一种是使用placeholder实现数据的批量喂入。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先在这里向大家推荐mooc慕课网北京大学曹老师的TensorFlow笔记课程

地址为:https://www.icourse163.org/course/PKU-1002536002

首先问题描述

 1 #两层简单神经网络(全连接)
 2 import tensorflow
 3 
 4 #定义输入
 5 x=tensorflow.constant([[0.7,0.5]])
 6 
 7 #随机生成权重
 8 w1=tensorflow.Variable(tensorflow.random_normal([2,3],stddev=1,seed=1))
 9 w2=tensorflow.Variable(tensorflow.random_normal([3,1],stddev=1,seed=1))
10 
11 #定义前向传播过程
12 a=tensorflow.matmul(x,w1)
13 y=tensorflow.matmul(a,w2)
14 
15 #会话计算结果
16 with tensorflow.Session() as sess:
17     init_op=tensorflow.global_variables_initializer()#初始化
18     sess.run(init_op)
19     print(sess.run(y))#计算结果

结果为

[[3.0904665]]
tensorflow.random_uniform()#平均分布
Tensorflow.truncated_normal()#去掉过大偏离点的正态分布
 1 #两层简单神经网络(全连接)
 2 import tensorflow
 3 
 4 #定义输入placeholder方便处理
 5 x=tensorflow.placeholder(tensorflow.float32,shape=(1,2))#1行2列
 6 
 7 #随机生成权重
 8 w1=tensorflow.Variable(tensorflow.random_normal([2,3],stddev=1,seed=1))
 9 w2=tensorflow.Variable(tensorflow.random_normal([3,1],stddev=1,seed=1))
10 
11 #定义前向传播过程
12 a=tensorflow.matmul(x,w1)
13 y=tensorflow.matmul(a,w2)
14 
15 #会话计算结果
16 with tensorflow.Session() as sess:
17     init_op=tensorflow.global_variables_initializer()#初始化
18     sess.run(init_op)
19     print(sess.run(y,feed_dict={x:[[0.7,0.5]]}))#喂入数据计算结果

这一次代码和上一个一样不过多了新东西,分别在第5行和19行

placeholder可以实现数据的批量喂入

转载于:https://www.cnblogs.com/yang295513/p/9882849.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值