07 评价分类结果

07 评价分类结果

7-1 准确度的陷阱和混淆矩阵

image-20221009092000429

image-20221009092023999

image-20221009092134165

image-20221009092719226

image-20221009092839605

7-2 精准率和召回率

image-20221009093029085

image-20221009093147332

image-20221009093404359

image-20221009093859014

image-20221009094045740

7-3 实现混淆矩阵,精准率和召回率

image-20221009094243560

image-20221009094319266

image-20221009094522836

image-20221009094556263

image-20221009094625039

image-20221009094939338

image-20221009095058661

image-20221009095107268

image-20221009095154318

7-4 F1 Score

image-20221009095455285

image-20221009103459141

image-20221009132645712

image-20221009132739311

image-20221009133200595

image-20221009133222094

image-20221009133236266

image-20221009133246771

image-20221009133326926

image-20221009133343628

image-20221009133423725

7-5 精准率和召回率的平衡

image-20221009133631894

image-20221009133829532

image-20221009133904869

image-20221009133935907

7-6 精准率-召回率曲线

image-20221009134214008

image-20221009134229435

image-20221009134237041

image-20221009134312644

image-20221009134402980

image-20221009134423591

image-20221009134429929

7-7 ROC 曲线

image-20221009134544090

image-20221009134641445

image-20221009134920427

image-20221009134949382

image-20221009135000189

image-20221009135023110

image-20221009135014547

image-20221009135110096

image-20221009135133426

7-8 多分类问题中的混淆矩阵

image-20221009135201893

image-20221009135251040

image-20221009135302173

image-20221009135317103

image-20221009135331633

image-20221009135339685
-1665295059069)]

[外链图片转存中…(img-E0PwVf6h-1665295059070)]

[外链图片转存中…(img-An5tiVpj-1665295059070)]

[外链图片转存中…(img-VbX4IH1R-1665295059071)]

### 适合图像分类识别任务的优化器 对于图像分类识别任务,几种常见的优化器因其特性而广泛应用于不同的场景中: #### 1. Adam Optimizer Adam 是一种自适应估计方法,它结合了 AdaGrad 和 RMSProp 的优点,在处理稀疏梯度和非平稳目标方面表现出色。该优化器通过存储过去梯度平方的指数衰减平均数来调整学习率[^2]。 ```python from tensorflow.keras.optimizers import Adam optimizer = Adam(learning_rate=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-07) ``` #### 2. SGD (Stochastic Gradient Descent) 随机梯度下降是最基础也是最常用的优化算法之一。尽管简单,但在某些情况下仍然非常有效,尤其是在大规模数据集上。SGD 可以设置动量参数以加速收敛并帮助跳出局部最小值[^3]。 ```python from tensorflow.keras.optimizers import SGD optimizer = SGD(learning_rate=0.01, momentum=0.9) ``` #### 3. RMSprop RMSprop 是另一种有效的自适应学习率的方法,特别适用于具有高维度空间的问题。此方法能够有效地管理长期依赖关系,并且通常比标准的 Adagrad 更稳定[^4]。 ```python from tensorflow.keras.optimizers import RMSprop optimizer = RMSprop(learning_rate=0.001, rho=0.9) ``` #### 不同优化器效果对比及适用场景 - **Adam**: 推荐用于大多数情况下的默认选择,因为它几乎不需要手动调节超参数就能取得不错的结果;尤其当面对复杂的数据分布时表现良好。 - **SGD with Momentum**: 如果希望获得更精确解或是在特定领域内有经验指导,则可以考虑使用带有动量项的传统 SGD 方法。这种方法可能需要更多的时间去调试最佳的学习速率和其他参数组合。 - **RMSprop**: 当遇到过拟合问题或是想要更快地减少初始阶段的大步长更新时可以选择这个选项。此外,在 RNN 类型的任务中有较好的评价记录。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值