Tensorflow(十八) —— 误差计算

本文介绍了TensorFlow中常见的误差计算方法,包括MSE(均方误差)和交叉熵损失函数(binary及categorical)。通过示例展示了它们的计算过程,并讨论了MSE的缺点,如梯度消失问题。最后,强调了在处理分类问题时直接使用logits计算交叉熵损失函数的优越性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 主要方式

1、MSE
2、cross entropy loss
3、Hinge loss
Σmax(0,1-y*h(x))

2. MSE

# ******************* MSE
y = tf.constant([0,1,3,2,1])
y = tf.cast(tf.one_hot(y,depth = 4),dtype=tf.float32)

logits = tf.random.normal([5,4])

loss1 = tf.reduce_mean(tf.square(y - logits))
print("loss1:",loss1.numpy())

loss2 = tf.square(tf.norm(y - logits))/(5*4)
print("loss2:",loss2.numpy())

loss3 = tf.losses.MSE(y,logits)
print("loss3:",loss3.shape)

loss4 = tf.reduce_mean(tf.losses.MSE(y,logits))
print("loss4:",loss4.numpy())

loss5 = tf.reduce_mean(tf.losses.MeanSquaredError()(y,logits))
print("loss5:",loss5.numpy())
"""
小写为函数
大写为类,使用前需实例化,再调用函数.__call__方法,该方法可省略不写
"""

loss6 = tf.reduce_mean(tf.losses.MeanSquaredError().__call__(y,logits))
print("loss6:",loss6.numpy())

3. cross entropy loss

# ********************* cross entropy loss
"""
Binary Classification: single output
                       multi output
"""
"""
小写为函数
大写为类
"""
# 对于二分类问题单输出的loss
y = tf.constant([1])
p = tf.constant([0.6])
loss1 = tf.losses.binary_crossentropy(y,p)
loss1_ = tf.losses.BinaryCrossentropy()(y,p)
loss1_2 = tf.losses.BinaryCrossentropy().__call__([[1],[1]],[[0.6],[0.6]])
print("loss1:",loss1.numpy(),loss1_.numpy(),loss1_2.numpy())

# 对于多输出的loss计算
loss2 = tf.losses.categorical_crossentropy([0,1,0,0,0],[0.5,0.1,0.1,0.1,0.1])
print("loss2:",loss2.numpy())

loss3 = tf.losses.CategoricalCrossentropy().__call__([0,1,0,0,0],[0.1,0.5,0.1,0.1,0.1])
print("loss3:",loss3.numpy())

loss4 = tf.losses.CategoricalCrossentropy()([0,1,0,0,0],[0.2,0.2,0.2,0.2,0.2])
print("loss4:",loss4.numpy())

loss5 = tf.losses.categorical_crossentropy([0,1,0,0,0],[0.01,0.96,0.01,0.01,0.01])
print("loss5:",loss5.numpy())

4. MSE的缺点

# ******************** why not MES
"""
1、sigmoid + MSE  => gradient vanish
2、converge slower
"""
import matplotlib.pyplot as plt
import numpy as np
x = np.linspace(0.001,1,100)
y = -np.log2(x)
plt.plot(x,y)
plt.show()

5. 直接对logits计算交叉熵损失函数

"""
input => logits => softmax => crossentropy

最后两部步容易出现数据不稳定的情况 因而可以将其合为一步
"""
logits = tf.random.normal([5,4])
y = tf.one_hot([0,3,2,1,3],depth=4)

loss = tf.reduce_mean(tf.losses.categorical_crossentropy(y,logits,from_logits = True))
print("loss:",loss.numpy())

"""
推荐使用from_logits
"""

本文为参考龙龙老师的“深度学习与TensorFlow 2入门实战“课程书写的学习笔记

by CyrusMay 2022 04 17

### TensorFlow计算 FLOPs 和模型参数量 在 TensorFlow 中,可以通过特定的方法来计算模型的浮点运算次数 (FLOPs) 和参数量。以下是详细的实现方法: #### 计算模型参数量 TensorFlow 提供了一个简单的方式来统计模型中的总参数数量以及每一层的具体参数分布。可以使用 `model.summary()` 方法快速查看模型结构及其参数总数。 ```python import tensorflow as tf # 定义一个简单的卷积神经网络作为示例 model = tf.keras.Sequential([ tf.keras.layers.Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=(28, 28, 1)), tf.keras.layers.MaxPooling2D(pool_size=(2, 2)), tf.keras.layers.Flatten(), tf.keras.layers.Dense(10, activation='softmax') ]) # 打印模型摘要 model.summary() ``` 上述代码会打印出每层的参数数量以及总的可训练和不可训练参数的数量[^4]。 #### 使用 Profiler 工具计算 FLOPs 为了更精确地获取模型的 FLOPs 数据,可以借助 TensorFlow 的内置工具——`tf.profiler` 或者通过构建图的方式手动分析操作符的复杂度。 ##### 方法一:基于 GraphDef 的方式 如果希望深入理解模型内部的操作并估算其理论上的 FLOPs 值,则可通过解析 TensorFlow 图形定义 (`GraphDef`) 来完成此任务。 ```python import numpy as np from tensorflow.python.framework import graph_util from tensorflow.python.framework import dtypes def get_flops(model): run_meta = tf.compat.v1.RunMetadata() # 创建运行元数据对象 opts = tf.compat.v1.profiler.ProfileOptionBuilder.float_operation() # 构建静态图环境 with tf.Graph().as_default(): x = tf.random.uniform([1, *model.input.shape[1:]]) # 输入张量模拟器 y_ = model(x) flops = tf.compat.v1.profiler.profile( tf.get_default_graph(), run_meta=run_meta, cmd="op", options=opts ) return flops.total_float_ops flops_count = get_flops(model) print(f"FLOPs: {flops_count}") ``` 这段脚本创建了一种机制用于评估整个前向传播过程中涉及的所有乘加法操作数目,并最终返回总计数值[^5]。 ##### 方法二:直接调用 Keras API 对于更高版本的 TensorFlow(>=2.x),可以直接利用扩展库如 `keras-flops` 实现自动化检测功能而无需额外编写底层逻辑代码。 安装依赖项: ```bash pip install keras-flops ``` 应用实例化后的模型进行测量: ```python from keras_flops import get_flops flops = get_flops(model, batch_size=1) print(f"FLOPS: {flops / 1e9:.2f} GFLOPS") ``` 这种方法更加简洁明了,适合大多数常规场景下的需求[^6]。 --- ### 总结 无论是采用传统手段还是现代插件支持,在实际开发工作中都可以灵活选用合适的技术路线达成目标。值得注意的是,不同平台间可能存在细微差异甚至误差范围内的偏差情况发生;因此建议开发者们依据具体应用场景选取最优解方案加以实践验证效果最佳。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值