Tensorflow(二) —— 创建Tensor类型的数据

这篇文章详细介绍了如何使用TensorFlow 2创建Tensor,包括从numpy和list转换、 zeros、ones函数,以及正态分布、均匀分布的随机生成。还展示了tf.zeros_like和tf.ones_like的用法,以及Tensor在不同场景的应用,如损失函数计算和数据处理。
部署运行你感兴趣的模型镜像

1 创建Tensor的方式

  • 1、from numpy、list
  • 2、zeros、ones
  • 3、fill
  • 4、random
  • 5、constant
  • 6、Application

2 from numpy、list

import numpy as np
a = np.arange(20).reshape(2,10)
print("a:",a)
a1 = tf.convert_to_tensor(a)
print("a1:",a1)

b = [[2,5],[3,5]]
print("b:",b)
b1 = tf.convert_to_tensor(b)
print("b1:",b1)

3 tf.zeros

# 创建一个标量
t1 = tf.zeros([])
print("t1:",t1)

# 创建一个向量
t2 = tf.zeros(5)
print("t2:",t2)
t3 = tf.zeros((5)) # ()[]等价
print("t3:",t3)

# 创建一个matrix
t4 = tf.zeros([5,6])
print("t4:",t4)

# 创建维度在三维及其以上的数列
t5 = tf.zeros([2,2,2])
print("t5:",t5)

4 tf.zeros_like

a = np.arange(20).reshape(4,5)
t1 = tf.zeros_like(a)
print("t1:",t1)

5 tf.ones 和 tf.ones_like

t1 = tf.ones([2,3,4])
print("t1:",t1)

a = np.arange(50).reshape(5,10)
t2 = tf.ones_like(a)
print("t2:",t2)

6 Normal(正态分布)

# 普通正太分布
t1 = tf.random.normal([5,10],mean = 1,stddev = 1)
"""
若不指定均值和标准差,则默认使用分布N0,1"""
print("t1:",t1)

# 截断正太分布
"""
权值初始化的过程中防止出现 Gradient Vanish(梯度消失)
"""
t2 = tf.random.truncated_normal([4,8],mean = 0,stddev = 1)
print("t2:",t2)

7 uniform(均匀分布)

t1 = tf.random.uniform([4,10],minval = 0, maxval = 1)
print("t1:",t1)
t2 = tf.random.uniform([2,5],minval = 0,maxval = 100)
print("t2:",t2)

8 随机打散(random permutation)

old_index = tf.range(3)
print("old_index:",old_index)
new_index = tf.random.shuffle(old_index)
print("new_index:",new_index)

old_t1 = tf.random.normal([3,5,3],mean = 0,stddev = 1)
print("old_t1:",old_t1)
new_t1 = tf.gather(old_t1,new_index)
print("new_t1:",new_t1)

9 各种Tensor的典型应用


# Scalar []
"""
1、计算损失函数loss
2、计算accuracy
"""
out = tf.random.uniform([4,10])
print("out:",out)
y = tf.range(4)
print("y:",y)
y = tf.one_hot(y,depth = 10)
print("y:",y)
loss = tf.keras.losses.mse(y,out)
print("loss:",loss)
loss = tf.reduce_mean(loss)
print("loss:",loss)

# vector

# matrix

# ndim = 3
"""
自然语言处理
"""
# ndim = 4
"""
图片处理
"""

# ndim = 5
"""
加上single_task
"""

本文为参考龙龙老师的“深度学习与TensorFlow 2入门实战“课程书写的学习笔记
by CyrusMay 2022 04 06

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

### TensorFlow 中张量的基本概念 #### 定义与特性 TensorFlow中的张量可以被视作一个多维数组,这种结构非常类似于NumPy库中的`ndarray`对象[^4]。每一个张量都拥有两个核心属性: - **数据类型 (dtype)**:指定了张量内存储数值的具体形式,比如整数(int),浮点数(float)等。 - **形状 (shape)**:描述了各个维度上的大小,即每一层嵌套列表的长度。 这些特征使得张量成为处理多维数据分析的理想工具,在机器学习领域尤其重要。 #### 创建张量的方法 为了初始化一个新的张量实例,可以通过多种方式实现。最常用的方式之一是从Python原生的数据结构转换而来,例如列表或元组;也可以直接利用内置函数来生成特定模式下的随机值填充的新张量。下面给出几个具体的例子说明如何创建不同类型的张量: ```python import tensorflow as tf # 使用常量创建一个标量(0-D tensor) scalar_tensor = tf.constant(7) # 构建向量(1-D tensor), 可以传入list或者tuple vector_tensor = tf.constant([1., 2., 3.]) # 利用维列表建立矩阵(2-D tensor) matrix_tensor = tf.constant([[1, 2], [3, 4]]) print(scalar_tensor) print(vector_tensor) print(matrix_tensor) ``` 这段代码展示了三种不同的张量形态——标量、矢量以及矩阵,并且每种情况下均采用了`tf.constant()`方法来进行构造。 #### 形状变换操作 除了上述提到的基础性质外,张量还支持对其自身的尺寸规格进行调整的操作。这主要体现在两方面: - 动态改变张量的实际布局而不影响原始内存分配; - 静态声明预期达到的目标外形参数,从而允许编译器优化执行路径。 具体来说,就是运用`tf.reshape()`和`tf.set_shape()`这两个API接口完成相应的任务[^3]。 ```python original_tensor = tf.constant([[1, 2, 3], [4, 5, 6]]) reshaped_tensor = tf.reshape(original_tensor, shape=[3, 2]) set_shaped_tensor = original_tensor.set_shape((2, None)) print("Original Tensor:\n", original_tensor.numpy()) print("\nReshaped Tensor:\n", reshaped_tensor.numpy()) print("\nSet Shaped Tensor Shape:", set_shaped_tensor.shape) ``` 此段脚本先定义了一个初始状态下的阶方阵作为输入源,接着分别调用了reshape()与set_shape()对其进行重塑实验并打印结果对比差异所在。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值