- 博客(75)
- 收藏
- 关注
原创 总结(1)
过度拟合(Overfitting)是指在机器学习中,模型在训练数据上表现得过于好,以至于在新的、未见过的数据上表现不佳的现象。简而言之,过度拟合意味着模型过于追求在训练数据上的细节和噪声,从而导致在真实世界中无法泛化或适应新数据。过度拟合的特征是,模型对训练数据表现出很高的准确度,但在测试数据(或新数据)上的性能却下降。这是因为模型在训练数据上记住了训练集中的噪声和随机性,而不是学习到通用的模式。这种现象可能导致模型产生不稳定的预测结果,因为它对训练数据中的细微变化非常敏感。
2023-08-22 16:40:51
1518
原创 学习笔记--神经网络与深度学习之各种神经网络
这意味着网络的信息传递是单向的,没有循环依赖。循环神经网络的参数是共享的,即在每个时间步上使用相同的参数,这是循环神经网络的一个重要特性。前馈神经网络(Feedforward Neural Network,FNN)是一种最早发明的简单人工神经网络,它的拓扑结构是一种比较直接的网络连接方式。另外,还有一种双向循环神经网络,它与普通的循环神经网络最大的区别在于方向是双向的,可以同时利用前面和后面的时间点的输出。循环神经网络是一种神经网络结构,与普通的神经网络最大的区别在于它具有一个循环递归和一个递归参数w。
2023-08-02 20:47:03
291
原创 学习笔记--神经网络与深度学习之循环神经网络
全前馈神经网络,信息单向传递,网络易学习,但能力被减弱。网络输出只依赖于当前的输入。输入输出维数固定。循环神经网络,具有能力。其中的神经元可接收 其他神经元的信息和 本身的信息。输入输出可不固定。参数学习可通过随时间反向传播算法学习。输入序列较长时,错误信息向前传递过长,存在梯度爆炸和梯度消失问题,即长程依赖问题,一种有效的改进方式:门控机制。循环神经网络易拓展到更广义的记忆网络模型: 递归神经网络、 图网络。
2023-08-02 20:45:09
1298
原创 学习笔记--神经网络与深度学习之卷积神经网络
(1)参数太多:对于输入的1001003的RGB图像,全连接前馈网络,第一个隐藏层的每个神经元到输入层有1001003=30000个独立的连接,即权重参数,隐藏层神经元个数增加,参数规模急剧增加,网络训练效率低,易过拟合。(2)局部不变性特征:全连接网络很难提取自然图像中的局部不变性特征:尺度缩放、平移、旋转;这些操作不影响自然图像的语义信息。CNN三个结构特性:局部连接、权重共享、汇聚这三特性使CNN具有一定的平移、缩放、旋转不变性。参数更少。
2023-08-02 11:50:41
860
原创 学习笔记--神经网络与深度学习之前馈神经网络
在大脑中,神经网络由称为神经元的神经细胞组成,神经元的主要结构有细胞体、树突(用来接收信号)和轴突(用来传输信号)。一个神经元的轴突末梢和其他神经元的树突相接触,形成突触。神经元通过轴突和突触把产生的信号送到其他的神经元。信号就从树突上的突触进入本细胞,神经元利用一种未知的方法,把所有从树突突触上进来的信号进行相加,如果全部信号的总和超过某个阀值,就会激发神经元进入兴奋状态,产生神经冲动并传递给其他神经元。神经网络可以看作一个函数,通过简单非线性函数的多次复合,实现输入空间到输出空间的复杂映射。
2023-07-31 17:01:11
556
原创 学习笔记--神经网络与深度学习之线性模型
线性模型:机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型。主要介绍四种不同的线性分类模型:logistic回归,softmax回归,感知器和支持向量机,这些模型区别主要在于使用了不同的损失函数。一个线性分类器是由一个或多个线性的判别函数和非线性的决策函数组成。线性模型的公式一般形式为:f(x;ω)=ω^T x+b;其中ω=[ω_1,⋯,ω_D]T为D维权重向量,b为偏置。在分类问题中,输出目标y是一些离散的标签,所以要引入其他函数来预测输出目标。其中f(x;ω)为判别函数,决策函数g
2023-07-31 16:10:40
273
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人