TensorFlow学习笔记--(3)张量的常用运算函数

本文介绍了如何使用TensorFlow中的tf.GradientTape计算损失函数的偏导数,独热编码在图像分类中的应用,以及tf.one_hot函数的工作原理。还涵盖了张量转换为概率分布的softmax函数和寻找张量中特定维度最大值的索引方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

损失函数及求偏导

image-20231112231632826

通过 tf.GradientTape 函数来指定损失函数的变量以及表达式

最后通过 gradient(%损失函数%,%偏导对象%) 来获取求偏导的结果

独热编码

image-20231113000412575

给出一组特征值 来对图像进行分类 可以用独热编码

0的概率是第0种 1的概率是第1种 0的概率是第二种

image-20231113000653135

tf.one_hot(%某标签值%,%分类数%)
这里还没太看懂结果的3X3矩阵是怎么来的 如果单纯的是因为有几种类型 就有几个1
那传入的标签值参数就没有意义了

张量转换输出概率分布

image-20231113001019695

tf.nn.softmax(%张量%)
传入一组张量值 根据每个分量的大小 来输出每种分类的概率值

image-20231113001058019

返回指定维度最大值所在的索引

image-20231113001520201

对axis=0 求每一列的最大值所在的索引号 分别是 3 3 1

对axis=1 则是求每一行的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值