【深度学习(deep learning)】花书第11章 实践方法论 读书笔记

本文提供了一套深度学习项目的实践方法论,包括确定目标、构建工作流程、选择性能度量标准、建立基准模型、调参技巧及调试策略。以手写数字识别为例,详细展示了从简单模型到复杂网络的构建过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【深度学习(deep learning)】花书第11章 实践方法论 读书笔记


前言

打基础,阅读花书,感觉一次性啃不动。看一点算一点,写一点笔记留作纪念。以便日后查看与回顾。炼丹啦,炼丹啦,我是炼丹的小行家~ 2020.12.5-2020.12.5

以下是正式内容。

一、实践方法论 走进丹方

1.确定目标,明确任务要干什么,并且选定对应的误差度量指标,设定目标值。
2.构建一个端到端的工作流程。包括数据、模型、评估等部分。数据部分保证要有一个合适的输入,模型部分保证要有一个基本正确的输出,评估部分落实度量指标的计算,指导优化,并进行结果的可视化。
3.搭建系统,分析性能。确定性能瓶颈,对低于预期的部分进行分析找出原因。
4.根据分析结果,反复调整、优化模型。比如收集新数据调整超参数,改进算法等。

二、性能度量

西瓜书上有更详细的介绍,这里就只放一些公式和简要的说明

不同的任务对应不同的性能度量指标。要有一个初步的目标性能预期。

2.1 分类

  • 准确率误差
    误差 error rate :输出错误的样本的比例
    准确率 accuracy:输出正确的样本的比例 = 1 - err
    A C C = T P + T N T P + F N + F P + T N ACC=\frac{TP+TN}{TP+FN+FP+TN} ACC=TP+FN+FP+TNTP+TN
  • 查准率 / 查全率 / F1度量
    混淆矩阵(图来自参考文献3)混淆矩阵
    查准率 / 精度 / precision:希望 查到的,都是真的;也就是宁可放过一千,不可错杀一个 P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP
    查全率 / 召回率 / recall:希望 真的,都能被查到;也就是宁可错杀一千,不能放过一个 R = T P T P + F N R=\frac{TP}{TP+FN} R=TP+FNTP
    F1度量:查准和查全的调和平均 F 1 = 2 × P × R P + R F1=\frac{2\times P\times R}{P+R} F1=P+R2×P×R
  • PR曲线 / ROC曲线 / AUC面积
    PR曲线:查准率P为y轴,查全率R为x轴。
    ROC曲线:真正例率TPR为y轴,假正例率FPR为x轴。
    T P R = R = T P T P + F N TPR=R=\frac{TP}{TP+FN}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值