tensorflow中axis理解非常重要

本文详细解释了Numpy中axis参数的功能与应用,通过多个实例展示了如何利用axis进行多维度数组的数据处理,包括求和、排序等操作。

axis的作用即如何理解
numpy是python进行科学计算必不可少的模块,随着深度学习越来越火,numpy也越来越流行。了解numpy的人知道,在numpy中,有很多的函数都涉及到axis,很多函数根据axis的取值不同,得到的结果也完全不同。可以说,axis让numpy的多维数组变的更加灵活,但也让numpy变得越发难以理解。这里通过详细的例子来学习下,axis到底是什么,它在numpy中的作用到底如何。

为什么会有axis这个东西,原因很简单:numpy是针对矩阵或者多为数组进行运算的,而在多维数组中,对数据的操作有太多的可能,我们先来看一个例子。比如我们有一个二维数组:

>>> import numpy as np
>>> data = np.array([
... [1,2,1],
... [0,3,1],
... [2,1,4],
... [1,3,1]])

这个数组代表了样本数据的特征,其中每一行代表一个样本的三个特征,每一列是不同样本的特征。如果在分析样本的过程中需要对每个样本的三个特征求和,该如何处理?简单:

>>> np.sum(data, axis=1)
array([4, 4, 7, 5])

那如果想求每种特征的最小值,该如何处理?也简单:

>>> np.min(data, axis=0)
array([0, 1, 1])

又如果想得知所有样本所有特征的平均值呢?还是很简单:

>>> np.average(data)
1.6666666666666667

由此可以看出,通过不同的axis,numpy会沿着不同的方向进行操作:如果不设置,那么对所有的元素操作;如果axis=0,则沿着纵轴进行操作;axis=1,则沿着横轴进行操作。但这只是简单的二位数组,如果是多维的呢?可以总结为一句话:设axis=i,则numpy沿着第i个下标变化的放下进行操作。例如刚刚的例子,可以将表示为:data =[[a00, a01],[a10,a11]],所以axis=0时,沿着第0个下标变化的方向进行操作,也就是a00->a10, a01->a11,也就是纵坐标的方向,axis=1时也类似。下面我们举一个四维的求sum的例子来验证一下:

>>> data = np.random.randint(0, 5, [4,3,2,3])
>>> data
array([[[[4, 1, 0],
         [4, 3, 0]],
        [[1, 2, 4],
         [2, 2, 3]],
        [[4, 3, 3],
         [4, 2, 3]]],

       [[[4, 0, 1],
         [1, 1, 1]],
        [[0, 1, 0],
         [0, 4, 1]],
        [[1, 3, 0],
         [0, 3, 0]]],

       [[[3, 3, 4],
         [0, 1, 0]],
        [[1, 2, 3],
         [4, 0, 4]],
        [[1, 4, 1],
         [1, 3, 2]]],

       [[[0, 1, 1],
         [2, 4, 3]],
        [[4, 1, 4],
         [1, 4, 1]],
        [[0, 1, 0],
         [2, 4, 3]]]])

当axis=0时,numpy验证第0维的方向来求和,也就是第一个元素值=a0000+a1000+a2000+a3000=11,第二个元素=a0001+a1001+a2001+a3001=5,同理可得最后的结果如下:

>>> data.sum(axis=0)
array([[[11,  5,  6],
        [ 7,  9,  4]],

       [[ 6,  6, 11],
        [ 7, 10,  9]],

       [[ 6, 11,  4],
        [ 7, 12,  8]]])

当axis=3时,numpy验证第3维的方向来求和,也就是第一个元素值=a0000+a0001+a0002=5,第二个元素=a0010+a0011+a0012=7,同理可得最后的结果如下:

>>> data.sum(axis=3)
array([[[ 5,  7],
        [ 7,  7],
        [10,  9]],

       [[ 5,  3],
        [ 1,  5],
        [ 4,  3]],

       [[10,  1],
        [ 6,  8],
        [ 6,  6]],

       [[ 2,  9],
        [ 9,  6],
        [ 1,  9]]])

使用axis的相关函数
在numpy中,使用的axis的地方非常多,处理上文已经提到的average、max、min、sum,比较常见的还有sort和prod,下面分别举几个例子看一下:

sort
>>> data = np.random.randint(0, 5, [3,2,3])
>>> data
array([[[4, 2, 0],
        [0, 0, 4]],

       [[2, 1, 1],
        [1, 0, 2]],

       [[3, 0, 4],
        [0, 1, 3]]])

>>> np.sort(data)  ## 默认对最大的axis进行排序,这里即是axis=2
array([[[0, 2, 4],
        [0, 0, 4]],

       [[1, 1, 2],
        [0, 1, 2]],

       [[0, 3, 4],
        [0, 1, 3]]])
>>> np.sort(data, axis=0)  # 沿着第0维进行排序,原先的a000->a100->a200转变为a100->a200->a000
array([[[2, 0, 0],
        [0, 0, 2]],

       [[3, 1, 1],
        [0, 0, 3]],

       [[4, 2, 4],
        [1, 1, 4]]])
>>> np.sort(data, axis=1)  # 沿着第1维进行排序
array([[[0, 0, 0],
        [4, 2, 4]],

       [[1, 0, 1],
        [2, 1, 2]],

       [[0, 0, 3],
        [3, 1, 4]]])
>>> np.sort(data, axis=2)  # 沿着第2维进行排序
array([[[0, 2, 4],
        [0, 0, 4]],

       [[1, 1, 2],
        [0, 1, 2]],

       [[0, 3, 4],
        [0, 1, 3]]])
>>> np.sort(data, axis=None)  # 对全部数据进行排序
array([0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 2, 2, 2, 3, 3, 4, 4, 4])

prod(即product,乘积)

 >>> np.prod([[1.,2.],[3.,4.]])
 24.0

 >>> np.prod([[1.,2.],[3.,4.]], axis=1)
 array([  2.,  12.])

 >>> np.prod([[1.,2.],[3.,4.]], axis=0)
 array([ 3.,  8.])

相信通过上面的讲解与例子,你应该对axis有了比较清楚的了解。个人认为,如果没有理解axis的真正含义,很难熟悉的运用numpy进行数据处理

https://blog.youkuaiyun.com/fangjian1204/article/details/53055219转载

### TensorFlow 2 常用函数及其应用 #### 创建张量与变量 创建和初始化张量是构建机器学习模型的基础操作之一。`tf.constant()`用于创建常量张量,而`tf.Variable()`则用来声明可变张量,后者通常应用于权重等需要更新的参数。 ```python import tensorflow as tf # 定义一个常量张量 const_tensor = tf.constant([[1., 2.], [3., 4.]]) print(const_tensor) # 使用Variable定义可以被优化器修改其值的张量 var_tensor = tf.Variable([[5., 6.], [7., 8.]]) print(var_tensor) ``` #### 随机数生成 随机化对于神经网络中的初始权值设置至关重要。`tf.random.normal()`能够按照正态分布生成指定形状的随机数值数组。 ```python random_values = tf.random.normal(shape=(2, 2), mean=0.0, stddev=1.0) print(random_values) ``` #### 数据集处理 在TensorFlow中,`tf.data.Dataset.from_tensor_slices()`是一个非常实用的方法,它可以将给定的数据切片成多个样本,并允许更灵活地加载大型数据集到内存之外的位置[^3]。 ```python features = [[1, 2], [3, 4]] labels = [0, 1] dataset = tf.data.Dataset.from_tensor_slices((features, labels)) for feature, label in dataset: print(f'Feature: {feature.numpy()}, Label: {label.numpy()}') ``` #### 数学运算 执行矩阵乘法、加减法以及其他线性代数运算是深度学习框架不可或缺的功能。这里展示如何利用`@`算子来进行两个矩阵之间的点积计算: ```python matrix_a = tf.constant([[1, 2], [3, 4]]) matrix_b = tf.constant([[5, 6], [7, 8]]) product_matrix = matrix_a @ matrix_b print(product_matrix) ``` #### 维度变换 当涉及到不同维度间的转换时,如展平图像或将批量大小作为新轴加入现有张量结构内,`reshape`, `transpose`, 和其他类似的API就显得尤为重要[^2]。 ```python original_tensor = tf.reshape(tf.range(12), (3, 4)) transposed_tensor = tf.transpose(original_tensor) reshaped_tensor = tf.reshape(transposed_tensor, (-1,)) print('Original Tensor:\n', original_tensor) print('\nTransposed Tensor:\n', transposed_tensor) print('\nReshaped Tensor:', reshaped_tensor) ``` #### 激活函数 激活层引入非线性的能力使得深层架构成为可能。ReLU是最流行的激活方式之一,通过`tf.nn.relu()`实现简单快捷。 ```python input_data = tf.constant([-1., 0., 1.]) activated_output = tf.nn.relu(input_data) print(activated_output) ``` #### 卷积与池化 卷积操作(`tf.nn.conv2d`)以及最大池化(`tf.nn.max_pool`)构成了CNN的核心组件,广泛应用于计算机视觉领域内的任务解决过程之中. ```python image_batch = tf.zeros([1, 10, 10, 1]) # batch_size x height x width x channels filter_weights = tf.ones([3, 3, 1, 1]) # filter_height x filter_width x input_channels x output_channels convolved_image = tf.nn.conv2d(image_batch, filters=filter_weights, strides=[1, 1, 1, 1], padding='SAME') pooled_result = tf.nn.max_pool(convolved_image, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID') ``` #### 聚合统计 聚合统计数据有助于理解整个批次的表现情况。例如,`tf.reduce_mean()`, `tf.reduce_sum()`可用于沿特定轴方向上求平均值或总和[^5]。 ```python data_for_reduction = tf.constant([[1., 2.], [3., 4.]]) summed_along_axis_0 = tf.reduce_sum(data_for_reduction, axis=0) mean_across_all_elements = tf.reduce_mean(data_for_reduction) print(summed_along_axis_0) print(mean_across_all_elements) ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值