tensorflow 基础

本文介绍了TensorFlow的基本概念,包括如何构建和优化计算图、利用张量表示数据、使用图来表示计算任务,并通过变量维护状态。此外还讨论了如何在多CPU和GPU环境下分配计算资源,以及通过具体实例展示如何实现线性回归。
部署运行你感兴趣的模型镜像

计算模型

  • 首先构造好整个计算链路(图)
  • 可以对链路进行优化
  • 分布式调度

基于层模型

  • 每个层的计算,固定实现 forward/backward
  • 必须手动指定目标GPU卡

概念

  • 使用张量表示数据
  • 使用图来表示计算任务
  • 在绘画的上下文中执行图
  • 通过变量维护状态
  • 使用feed和fetch可以为任意的操作赋值或者从其中获取数据

numpy vs tensorflow

tu9

tensorflow 计算图

tensorflow一般分为2部分

  • 构造部分,包含计算流图
  • 执行部分,通过session来执行图中的计算

构建图

  • 创造源节点(source op)
  • 源节点输出传递给其他节点op做运算

TF默认图

  • tf python库有default graph
  • 节点构造器可以增加节点

简要例子

tu10

image

变量

tu11

  • 用variable来保存参数w
  • 注意要先初始化

多cpu和gpu

用 with … device 控制操作

tu12

线性回归例子

tu13

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

### TensorFlow 基础 API 文档与教程 #### 获取并安装 TensorFlow 为了使用 TensorFlow基础 API,首先需要确保已正确安装 TensorFlow 库。可以通过 pip 工具来完成安装操作: ```bash pip install tensorflow ``` 对于希望利用 GPU 加速计算环境的开发者来说,则需特别注意版本兼容性以及驱动程序的要求。 #### 导入 TensorFlow 模块 成功安装之后,在 Python 脚本或交互环境中导入 TensorFlow 是必不可少的第一步[^4]: ```python import tensorflow as tf ``` 这一步骤使得后续可以方便地调用 TensorFlow 提供的各种功能函数和类定义。 #### 使用常量与变量 TensorFlow 中的数据主要以张量的形式存在。创建一个简单的常量可以直接通过 `tf.constant` 函数实现: ```python hello_world = tf.constant('Hello, TensorFlow!') print(hello_world.numpy()) # 输出: Hello, TensorFlow! ``` 而当涉及到模型参数或其他可能变化的数据时,则应该考虑使用变量 Variable 来表示它们。Variable 对象允许被更新,并且能够自动追踪梯度信息以便于反向传播过程中的优化处理。 ```python w = tf.Variable([0.5], dtype=tf.float32) b = tf.Variable([-0.7], dtype=tf.float32) # 更新 w 和 b 的值 w.assign_add(0.1) b.assign_sub(0.1) ``` #### 构建简单线性回归模型 构建机器学习模型通常涉及定义前向传播路径(即如何从输入得到预测输出)。下面是一个非常基础的例子——单特征线性回归模型的搭建方式: ```python def linear_model(x): return w * x + b ``` 这里假设权重 \(w\) 和偏置项 \(b\) 都已经被初始化为 Variables 类型的对象;给定任意实数类型的输入 \(x\) 后即可获得相应的估计结果。 #### 计算损失函数 为了让模型学会调整内部参数从而更好地拟合数据集,还需要引入衡量误差大小的标准—损失函数 Loss Function。均方差 MSE (Mean Squared Error) 就是一种常用的选择之一: ```python loss_function = lambda y_true, y_pred: tf.reduce_mean(tf.square(y_true - y_pred)) ``` 此表达式接收真实标签值 `y_true` 及由上述线性组合产生的预测得分 `y_pred` ,返回两者之间差异平方平均值得到最终评估指标 score。 #### 执行训练循环 最后便是反复迭代整个流程直至收敛的过程了。每次读取一批次样本点喂给网络做正向推理的同时记录下当前时刻累积下来的总代价 cost 。接着借助选定好的最优化算法 Optimize Algorithm (比如随机梯度下降 SGD 或 Adam),依据链式法则 Chain Rule 自动求导机制推导出各层节点关于目标函数敏感程度的变化趋势 gradient 并据此修正连接权系数 weights 。 ```python optimizer = tf.optimizers.Adam() for epoch in range(num_epochs): with tf.GradientTape() as tape: predictions = linear_model(features) loss_value = loss_function(labels, predictions) gradients = tape.gradient(loss_value, [w,b]) optimizer.apply_gradients(zip(gradients,[w,b])) ``` 以上就是基于 TensorFlow 实现的一个完整的端到端工作流概述[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值