机器学习笔记 - 深度学习常见问题一

本文探讨了深度学习中的神经网络概念,过拟合及其危害,并提供了多种解决方案,包括获取更多数据、正则化、Dropout等。还讨论了全连接层、激活函数的作用,卷积神经网络中的卷积和池化层,以及为何在分类中使用softmax而非SVM。此外,还介绍了Keras模型的构建方法和多层感知器(MLP)的工作原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、什么是神经网络?

        神经网络复制了人类学习的方式,受我们大脑中神经元如何激发的启发,只是简单得多。

        最常见的神经网络由三个网络层组成:

        输入层、隐藏层(这是进行特征提取的最重要的层,并进行调整以更快地训练和更好地发挥作用)、输出层

二、关于过拟合

1.问:什么是过拟合?

答:在深度学习过程中,模型对于所提供的数据进行一致性假设而使模型变得过度复杂称为过拟合。白话一点就是说“为了得到一致假设而使假设变得过度严格”

2.问:过拟合带来的危害?

答:“一个过配的模型试图连误差(噪音)都去解释(而实际上噪音又是不需要解释的),导致泛化能力比较差,显然就过犹不及了。”这句话很好地诠释了过拟合带来的危害。具体表现在:深度学习的模型在提供的训练集上效果非常好,但是在未经过训练集观察的测试集上,模型的效果很差,即输出的泛化能力很弱。

3.问:那如何解决过拟合?

过拟合的解决办法很多,目前常用的有以下几种。

(1)获取和使用更多的数据集

(2)采用合适的模型

(3)使用Dropout

(4)权重衰减(Weight-decay)又被称为正则化,具体做法是将权值的大小加入到损失函数中。

(5)Early Stopping,是参数微调中的一种,即在每个

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

坐望云起

如果觉得有用,请不吝打赏

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值