21、数据挖掘中的无监督学习与推荐系统

数据挖掘中的无监督学习与推荐系统

1. 异常值与数据洞察

在数据分析中,异常值是需要关注的潜在问题。异常值是指那些与平均值相差甚远的观测值。少量的大异常值可能会导致模型失真,使其无法很好地代表典型的平均观测值。

以一个图表为例,一个轴似乎代表网页开发,另一个轴对比了 Ruby/Rails 和 Python/Django。靠近原点有一大群人对这些主题都不感兴趣,但当向左侧移动时,人群会分为两组。这表明 Ruby 和 Python 网页应用开发者虽然有一些共同感兴趣的技术(如 JSON、JavaScript),但在语言和框架方面存在不可调和的差异。

2. 主成分分析(PCA)与聚类分析

主成分分析和聚类分析都是无监督学习的方法,它们有相似之处,都能在没有监督的情况下对数据进行有效的总结。但它们解决问题的方式有很大不同。

聚类分析(如 k - 均值算法)试图将具有相似行为的观测值分组。理想情况下,同一簇内的项目彼此接近,而不同簇之间尽可能不同。k - 均值算法会确定质心,这些质心本质上是“原型”,足以描述一大类观测值。

主成分分析则会重新组织数据,创建新的特征,将原始特征重新组合成能描述观测值之间广泛行为差异的新特征。在这个过程中,它会创建一个高层次、全面的数据集“地图”,通过使用更少但更有信息量的特征来更有效地描述数据。

下面是它们的对比表格:
| 方法 | 关注重点 | 结果 |
| ---- | ---- | ---- |
| 聚类分析(k - 均值) | 观测值之间的相似性 | 分组,确定质心 |
| 主成分分析 | 特征的共同变化和与平均值的差异 | 创

MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值