Mr. Chen小课堂开课第一天

这篇博客是Mr. Chen小课堂的第一天内容,讲解了在Google Colab上使用TensorFlow 2.0进行初学者教程。重点介绍了损失函数,包括'sparse_categorical_crossentropy',并详细解释了binary_crossentropy和categorical_crossentropy的区别。此外,还探讨了accuracy的各种类型,如accuracy、binary_accuracy、categorical_accuracy、sparse_categorical_accuracy和top_k_categorical_accuracy的计算和应用场景。最后提到了模型训练中的fit()、predict()和evaluate()函数及其参数含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Mr. Chen小课堂开课第一天

学习内容:Google Colab上初学者的 TensorFlow 2.0 教程(网址:https://colab.research.google.com/github/tensorflow/docs-l10n/blob/master/site/zh-cn/tutorials/quickstart/beginner.ipynb#scrollTo=3wF5wszaj97Y)
课堂笔记:

model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])
  1. loss=‘sparse_categorical_crossentropy’,

目标函数,或称损失函数,是网络中的性能函数,也是编译一个模型必须的两个参数之一。由于损失函数种类众多,下面以keras官网手册的为例。
在官方keras.io里面,有如下资料:
binary_crossentropy(亦称作对数损失,logloss)
  即对数损失函数,log loss,与sigmoid相对应的损失函数。
  公式:L(Y,P(Y|X)) = -logP(Y|X)
  该函数主要用来做极大似然估计的,这样做会方便计算。因为极大似然估计用来求导会非常的麻烦,一般是求对数然后求导再求极值点。
  损失函数一般是每条数据的损失之和,恰好取了对数,就可以把每个损失相加起来。负号的意思是极大似然估计对应最小损失。

categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

categorical_crossentropy
  多分类的对数损失函数,与softmax分类器相对应的损失函数,理同上。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值