Tensorflow(一)

本文详细介绍如何使用TensorFlow创建神经网络结构,包括定义变量、占位符、激活函数、损失函数以及使用梯度下降法进行优化。同时,展示了如何在会话中运行初始化和训练步骤,以及如何在训练过程中可视化预测结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Create tensorflow structure

	Weights = tf.Variable(......)
	biases = tf.Variable(.....)
	y=......
	# 计算平方并计算均值
	loss = tf.reduce_mean(tf.square(...))
	# 使用梯度下降法进行优化参数
	optimizer = tf.train.GradientDescentOptimizer(0.5)
	train = optimizer.minimize(loss)
	# 激活所有的变量
	init = tf.initialize_all_variables()
	
	# 从init开始激活
	sess = tf.Session()
	sess.run(init)

for example:
在这里插入图片描述


Session

通过with的方法打开session
在这里插入图片描述


Variable

	# 定义变量必须通过这种方式
	new_value = tf.Variable(...)
	# 定义常量
	one = tf.constant(1)

Placeholder

	# 首先初始化空位
	input1 = tf.placeholder(tf.float32)
	input2 = tf.placeholder(tf.float32)
	# 定义输出为乘法
	output = tf.mul(input1,input2)
	# 利用with方法进行打开Session
	with tf.Session() as sess:
	# 输入参数为字典类型,运用feed_dict=
	print(sess.run(output,feed_dict={input1:[7.],input2:[2.]}))

Active

在这里插入图片描述


添加层

  1. 定义weight和biases以及方程
    	Weights = tf.Variable(tf.random_normal([in_size, out_size]))
    	biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
    	Wx_plus_b = tf.matmul(inputs, Weights) + biases
    
  2. 定义input的placeholder
    	# 表示x,和y都是列向量
    	xs = tf.placeholder(tf.float32, [None, 1])
    	ys = tf.placeholder(tf.float32, [None, 1])
    
  3. 添加层
    	# def add_layer(inputs, in_size, out_size, activation_function=None)
    	# 其中参数为:输入数据,输入数据的个数,输出数据的大小,激活函数
    	# 添加隐藏层,其中的激活函数使用.nn.relu
    	l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
    	# 添加输出层,其中的
    	prediction = add_layer(l1, 10, 1, activation_function=None)
    
  4. 添加loss函数和回归方法
    	loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction), reduction_indices=[1]))
    	train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
    
  5. 进行训练
    	# train_step和loss有关,而loss又和prediction有关,所以最后就和x_data和y_data都有关
    	sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
    	print(sess.run(loss, feed_dict={xs: x_data, ys: y_data}))
    

Plot

  1. plot出原来的数据
    	fig = plt.figure()
    	# 图的长宽和图名
    	ax = fig.add_subplot(1,1,1)
    	# 以点的方式绘制
    	ax.scatter(x_data, y_data)
    	# 使用show()会默认将程序暂停,需要使用ion()来忽略暂停
    	plt.ion()
    	plt.show()
    
  2. 在现在数据的图上进行不断绘制,进行对比
    	# 先进行线的删除,如果没有则pass
    	try:
            ax.lines.remove(lines[0])
        except Exception:
            pass
        # 然后将prediction的值绘制出来(因为predition和x_data相关)
        prediction_value = sess.run(prediction, feed_dict={xs: x_data})
        # 使用红色的线进行绘制
        lines = ax.plot(x_data, prediction_value, 'r-', lw=5)
        # 暂停一秒等待绘制
        plt.pause(1)
    
资源下载链接为: https://pan.quark.cn/s/9648a1f24758 Java JDK(Java Development Kit)是Java编程语言的核心组件,为开发和运行Java程序提供了必要的工具和环境。JDK 8是Oracle公司推出的个重要版本,它引入了许多新特性和改进,极大地提升了开发效率和代码质量,对开发者来说具有极高的实用价值。 本次提供的“jdk-8u251-macosx-x64.dmg”安装包是专为Mac OS X系统设计的64位版本,其中不仅包含了Java运行环境(JRE),还涵盖了丰富的开发工具,方便用户在Mac平台上进行Java程序的开发与运行。 JDK 8的关键更新和特性如下: Lambda表达式:这是JDK 8的项重大语法创新,允许开发者使用简洁的匿名函数替代复杂的多行回调代码,从而使代码更加简洁、易读且高效。 方法引用与构造器引用:与Lambda表达式配合使用,可以更直观地引用已有的方法或构造器,进步减少冗余代码,提升代码的可维护性。 Stream API:这是个用于处理集合的新API,采用声明式处理方式,使集合操作(如过滤、映射和归约等)更加高效且易于理解。 日期和时间API的改进:JDK 8对日期和时间API进行了重构,引入了java.time包,包含LocalDate、LocalTime和LocalDateTime等类,替代了原有的java.util.Date和java.util.Calendar,使日期和时间的处理更加友好和灵活。 Optional类:为解决null对象导致的空指针异常问题,JDK 8引入了Optional类,它是个容器对象,可以表示个值存在或不存在,从而有效避免空指针异常。 接口的默认方法和静态方法:接口现在可以定义默认方法(使用default关键字)和静态方法。默认方法允许在不破坏向后
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值