TensorFlow学习之路——入门

本文介绍TensorFlow的基础概念,包括其数据流图结构、张量概念及应用实例。通过一个简单的MNIST手写数字识别任务,演示了如何使用TensorFlow搭建模型、训练过程以及评估模型准确性。

转载 http://blog.youkuaiyun.com/eml_jw/article/details/70213626

一、什么是TensorFlow? 

TensorFlow™ 是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。它灵活的架构让你可以在多种平台上展开计算,例如台式计算机中的一个或多个CPU(或GPU),服务器,移动设备等等。

关键: 
1.TensorFlow是数据流图 
2.节点(Nodes):在图中表示数学操作,也可以表示数据输入(feed in)的起点/输出(push out)的终点,或者是读取/写入持久变量(persistent variable)的终点。 
3.图中线(edges):表示节点之间联系的多维数据数组(即张量(tensor)),“线”表示“节点”之间的输入/输出关系 
4.张量(tensor):由列表组成,分为1维,2维,3维,4维等。1维张量可以看成是向量(vector)[1,2,3],二位以上的张量可以看成多维的矩阵(matrix)[[1,2],[3,4]]

数据:TensorFlow的进给机制允许您在计算图中将数据注入任何Tensor。 因此,python计算可以将数据直接馈送到图中。

(接下来打算把TensorFlow的基本框架写出来)

1.数据集的定义 
2.定义模型的输入,输出(定义占位符) 
3.定义模型的参数(用变量定义) 
4.定义模型的计算公式 
5.定义损失函数,反馈学习算法 
6.定义init用来初始化前面的变量 
7.定义session来启动模型 
8.模型训练的构造

from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf

mnist = input_data.read_data_sets("MNIST_data/",one_hot=True)

#定义一个占位符用来作为数据的输入
x=tf.placeholder(tf.float32,[None,784])

#W是模型的参数,b是模型的偏执
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))

#定义模型的计算,计算的结果作为softmax的输入
y = tf.nn.softmax(tf.matmul(x,W) + b)

#添加一个新的占位符用于输入正确值
y_ = tf.placeholder("float",[None,10])

#计算交叉熵作为模型的损失函数
cross_entropy = -tf.reduce_sum(y_*tf.log(y))

#用梯度下降算法以0.01的学习速率最小化交叉熵,当运行这个操作时,它用梯度下降算法训练你的模型,微调你的变量,不断减少成本。
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

#设置好模型,在运行计算之前,需要添加一个操作来初始化我们创建的变量
init = tf.initialize_all_variables()  #初始化变量

#定义一个sess用来启动模型,并初始化变量
sess = tf.Session()  #启动图
sess.run(init)    #初始化 

#对模型进行训练,这里让模型循环训练1000次
for i in range(1000):
    batch_xs,batch_ys = mnist.train.next_batch(100)
    sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys})   #启动train_step,将变量填入数据

    #test model
    correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction,"float"))
    print (sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels}))



内容概要:本文系统介绍了算术优化算法(AOA)的基本原理、核心思想及Python实现方法,并通过图像分割的实际案例展示了其应用价值。AOA是一种基于种群的元启发式算法,其核心思想来源于四则运算,利用乘除运算进行全局勘探,加减运算进行局部开发,通过数学优化器加速函数(MOA)和数学优化概率(MOP)动态控制搜索过程,在全局探索与局部开发之间实现平衡。文章详细解析了算法的初始化、勘探与开发阶段的更新策略,并提供了完整的Python代码实现,结合Rastrigin函数进行测试验证。进一步地,以Flask框架搭建前后端分离系统,将AOA应用于图像分割任务,展示了其在实际工程中的可行性与高效性。最后,通过收敛速度、寻优精度等指标评估算法性能,并提出自适应参数调整、模型优化和并行计算等改进策略。; 适合人群:具备一定Python编程基础和优化算法基础知识的高校学生、科研人员及工程技术人员,尤其适合从事人工智能、图像处理、智能优化等领域的从业者;; 使用场景及目标:①理解元启发式算法的设计思想与实现机制;②掌握AOA在函数优化、图像分割等实际问题中的建模与求解方法;③学习如何将优化算法集成到Web系统中实现工程化应用;④为算法性能评估与改进提供实践参考; 阅读建议:建议读者结合代码逐行调试,深入理解算法流程中MOA与MOP的作用机制,尝试在不同测试函数上运行算法以观察性能差异,并可进一步扩展图像分割模块,引入更复杂的预处理或后处理技术以提升分割效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值