Tensorflow学习总结

本文介绍了TensorFlow的基本概念,包括其作为数据流图的计算方式、张量的分类以及激励函数的作用。此外,讨论了在回归和分类问题中的应用,并提到了过拟合问题以及如何使用dropout方法来缓解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、tensorflow简介
1.TensorFlow是Google开发的一款神经网络的Python外部的结构包, 也是一个采用数据流图来进行数值计算的开源软件库.
2.安装:利用anaconda安装
3.原理:通过不断学习进行曲线拟合,由图1到图2。TensorFlow是采用数据流图来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是TensorFlow名字的由来.
这里写图片描述
这里写图片描述

4.张量有多种

  • 零阶张量为 纯量或标量 (scalar) 也就是一个数值. 比如 [1]
  • 一阶张量为 向量 (vector), 比如 一维的 [1, 2, 3]
  • 二阶张量为 矩阵 (matrix), 比如 二维的 [[1, 2, 3],[4, 5, 6]]
    5.激励函数activation_function
    把整个网络简化成 线性函数Y = Wx, W 就是我们要求的参数, y 是预测值, x 是输入值.
    将线性函数转为非线性Y=AF(Wx),AF()就是激励函数,类似一个非线性函数. 比如说relu, sigmoid, tanh.
    可以创造自己的激励函数来处理自己的问题, 不过要确保的是这些激励函数必须是可以微分的, 因为在 backpropagation 误差反向传递的时候, 只有这些可微分的激励函数才能把误差传递回去.
    当你的神经网络层只有两三层, 对于隐藏层, 使用任意的激励函数, 不会有特别大的影响. 但当你使用特别多层的神经网络, 不得随意选择激励函数,会涉及到梯度爆炸, 梯度消失的问题.
    二、tensorflow回归问题
##################导入包##########################
import tensorflow as tf
import numpy as np
##################创建数据###################
x_data = np.linspace(-1,1,300, dtype=np.float32)[:, np.newaxis]
#噪音
noise = np.random.normal(0, 0.05, x_data.shape).astype(np.float32)
y_data = np.square(x_data) - 0.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值