fundamental_2017_12_9

一、泛化:在先前未观测到的输入上表现良好的能力成为~。

泛化误差:新输入的误差期望。(也成为测试误差)

二、独立同分布假设

每个数据集中的样本都是彼此相互独立的,并且训练集和测试集是同分布的。

注:独立同分布(指随机过程中,任何时刻的取值都为随机变量,如果这些随机变量服从同一分布,并且互相独立,那么这些随机变量是独立同分布。 如果随机变量X1和X2独立,是指X1的取值不影响X2的取值,X2的取值也不影响X1的取值且随机变量X1和X2服从同一分布,这意味 着X1和X2具有相同的分布形状和相同的分布参数,对离随机变量具有相同的分布律,对连续随机变量具有相同的概率密度函数,有 着相同的分布函数,相同的期望、方差。如实验条件保持不变,一系列的抛硬币的正反面结果是独立同分布。

三、欠拟合(underfitting)

模型不能在训练集上获得足够低的误差。(就是e>ε)

四、过拟合(overfitting)

训练误差和测试误差之间的差距太大。

五、模型容量(capacity)

*定义:~指其拟合各种函数的能力;

*容量低的模型可能很难拟合训练集;

*容量高的模型可能会过拟合,因为记住了不适用于测试集的训练集性质。(学了不该学的)

六、假设空间(hypothesis space)

*可以控制算法容量

*如:y=b+wx,y=b+w1x+w2x^2...... 通过改变输入特征的数目和加入这些特征对应的参数,改变模型的容量。

七、Vapnik-Chervonenkis维度,简称VC维

VC维定义为该分类器能够分类的训练样本的最大数目。

八、正则化

修改学习算法,使其降低泛化误差而非训练误差。

九、没有免费午餐定理(no free lunch throren)

在所有可能的数据生成分布上平均之后,每一个分类算法在未事先观测的点上都有相同的错误率。(天下乌鸦一样黑,半斤八两)

十、超参数

*超参数可以设置来控制算法行为,超参数的值不是通过学习算法本身学习出来的;

*超参数验证集:用于挑选超参数的数据子集。(也就是用来“训练”超参数的)


内容概要:本文介绍了基于SMA-BP黏菌优化算法优化反向传播神经网络(BP)进行多变量回归预测的项目实例。项目旨在通过SMA优化BP神经网络的权重阈值,解决BP神经网络易陷入局部最优、收敛速度慢及参数调优困难等问题。SMA算法模拟黏菌寻找食物的行为,具备优秀的全局搜索能力,能有效提高模型的预测准确性训练效率。项目涵盖了数据预处理、模型设计、算法实现、性能验证等环节,适用于多变量非线性数据的建模预测。; 适合人群:具备一定机器学习基础,特别是对神经网络优化算法有一定了解的研发人员、数据科学家研究人员。; 使用场景及目标:① 提升多变量回归模型的预测准确性,特别是在工业过程控制、金融风险管理等领域;② 加速神经网络训练过程,减少迭代次数训练时间;③ 提高模型的稳定性泛化能力,确保模型在不同数据集上均能保持良好表现;④ 推动智能优化算法与深度学习的融合创新,促进多领域复杂数据分析能力的提升。; 其他说明:项目采用Python实现,包含详细的代码示例注释,便于理解二次开发。模型架构由数据预处理模块、基于SMA优化的BP神经网络训练模块以及模型预测与评估模块组成,各模块接口清晰,便于扩展维护。此外,项目还提供了多种评价指标可视化分析方法,确保实验结果科学可信。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值