Python | K折交叉验证的参数优化的随机森林RF及SHAP可解释性分析回归预测算法

立个flag,这是未来一段时间打算做的Python教程,敬请关注。

1 数据及应用领域

我的程序中给出数据data.xlsx(代码及数据见文末),10 列特征值,1 个目标值,适用于各行各业回归预测算法的需求,其中出图及数据自动保存在当前目录,设置的训练集与预测集的比例为 80%:20%。

一、地球科学与环境科学

  • 遥感反演:利用多源遥感数据预测水体深度、土壤湿度、植被指数、叶面积指数等。

  • 气象与气候研究:预测降水量、气温、风速、风向等连续气象变量。

  • 水文与水资源管理:河流流量、地下水位、径流量预测。

  • 环境污染监测:空气质量指数、PM2.5/PM10浓度、重金属污染水平预测。

  • 地质与矿业:预测矿区地表沉降、地裂缝发展趋势,或矿产储量评估。

二、生物学与医学

  • 生态学:预测物种分布密度、群落生物量或生态环境因子变化。

  • 公共卫生:基于环境、生活方式或基因组数据预测疾病风险或血液生化指标。

  • 医学影像分析:预测器官或病灶体积、组织属性、功能指标。

三、工程与物理科学

  • 材料科学:预测材料性能,如强度、硬度、导热性、弹性模量

  • 土木与结构工程:预测建筑物或桥梁的应力、位移、寿命周期。

  • 控制系统与信号处理:连续控制变量预测、信号功率或系统状态预测。

四、经济与社会科学

  • 经济预测:股价、GDP、通货膨胀率、消费指数预测。

  • 市场分析:销售额、客户需求、产品价格预测。

  • 社会行为:人口增长、流动性、社会指标预测。

五、数据科学与机器学习方向

  • 时间序列预测:股票价格、气象指标、传感器数据。

  • 多变量因果建模:分析各特征对连续目标变量的影响。

  • 特征重要性解释:结合SHAP、LIME等方法揭示变量贡献。

2 算法理论基础

在机器学习的众多模型中,随机森林是一位极其稳健、易用且表现优良的“老牌选手”。它的原理并不复杂,却凭借强大的泛化能力和对各种数据类型的适应性,成为工程和科研中最常用的模型之一。

那随机森林究竟是怎么工作的?下面用最简单的方式带你了解它的理论基础。

🌟 一、随机森林是什么?

随机森林(Random Forest, RF)是一种集成学习方法,由许多相互独立的决策树组成。

你可以把它想象成:

不是让一棵树做决定,而是让一整片“森林”共同投票,最终结果更稳、更可靠。

每棵树都是一个“弱学习器”,但它们结构不同、观察的数据不同,组合到一起就形成一个强大的模型。

🌟 二、它的核心思路来自两个“随机”

随机森林的“随机”不是随便,而是有规则、有目的的随机。

✔ 1. 数据随机

每棵树使用训练集的一个随机子集(Bootstrap 采样)。
这让每棵树看到的世界都略有不同,减少过拟合。

✔ 2. 特征随机

在分裂节点时,不是从所有特征中选,而是随机挑出一部分特征让树判断。

这样带来的好处是:

  • 每棵树都有独特视角

  • 彼此之间相关性低

  • 森林整体更稳健

简单说:多样性带来力量。

🌟 三、为什么随机森林能表现得这么好?

随机森林的优秀表现来自它的机制设计:

  • 多棵树投票,误差会互相抵消

  • 每棵树都只关注部分特征,避免特征主导

  • 自带“包外估计”(OOB)可做内部验证

  • 能处理非线性关系

  • 不怕噪声、不怕异常值

  • 对特征分布几乎不敏感

  • 可解释性强,可直接评估特征重要性

这些特性让它在许多任务中表现稳定可靠。

🌟 四、训练过程既直观又高效

随机森林的训练过程可以概括为:

  1. 构建多棵树,每棵树基于随机采样的数据

  2. 在每个节点随机抽取部分特征用于分裂

  3. 每棵树独立训练,不互相干扰

  4. 预测时由所有树共同投票或求平均

这种方式不仅易于并行计算,而且结构简单、流程清晰,非常适合大规模工程应用。

🌟 五、适用于各种真实场景

随机森林经常用于:

  • 回归与分类任务

  • 含有大量特征的结构化数据

  • 非线性关系复杂的场景

  • 噪声高或样本质量参差不齐的数据

  • 特征解释性分析(如重要性排序)

它几乎是机器学习初学者和工程师的“第一把稳健武器”。

3 SHAP理论基础

🌟 一、SHAP 是什么?一句话概括

SHAP 是一套用“合作博弈论”思维解释模型的方法,用来回答:每个特征到底对预测结果贡献了多少?

如果你想知道:

  • 哪些特征最重要?

  • 每个特征是“推高”还是“压低”预测?

  • 不同样本吸收特征影响的方向是否一致?

  • 模型是怎么得出这个数的?

那 SHAP 就是最好的答案。

🧠 二、为什么要 SHAP?传统特征重要性有什么问题?

很多人都用过 XGBoost、Random Forest 的 “特征重要性”,但这些方法有明显缺陷:

❌ 1. 只能告诉你“重要”,不能告诉你“怎么重要”

例如: 某参数重要,但它是推高风速,还是降低风速?不知道。

❌ 2. 不能解释“单一样本”

模型给某一个点预测为 3.2 m/s,到底是由 NDVI 推上去的?还是由降水拉下来的?也不知道。

❌ 3. 依赖模型结构,不通用

不同模型指标不同,难对齐。

SHAP 完美解决了这些痛点。

🎲 三、SHAP 的核心思想:特征是“一起干活的队友”

想象一个团队比赛:

  • 每个队员(特征)都可能对团队成绩有贡献

  • 但是不同的队伍组合,贡献可能不一样

  • 那一个队员的“真实贡献”该怎么算?

SHAP 的思想就是:

让特征像“队员”一样参加所有组合队伍,再统计每个特征平均能让模型表现提高多少。

这就得到每个特征的贡献值(Shapley value)。它是一个“公平分配功劳”的方案。

🧩 四、SHAP 优秀的地方在哪里?

✔ 1. 公平性强

SHAP 的分配方式满足一系列“公平原则”:

  • 谁都没贡献 → 得分为 0

  • 特征越能独立提升模型效果 → 得分越大

  • 同样作用的特征贡献相同

这是其他方法做不到的。

✔ 2. 能画非常直观的可视化

本程序SHAP带的图包括:

这些图都是发论文神器。

论文价值:可解释性直接提升一档

SCI 论文里 reviewer 最爱问:

  • “模型的物理解释是什么?”

  • “为什么这个特征如此重要?”

  • “模型是不是只是黑盒?”

你用 SHAP,一张 beeswarm plot 就能回答所有问题。

✔ 3. 模型无关、模型无偏见

无论你是:

  • XGBoost

  • CatBoost

  • LightGBM

  • Random Forest

  • Gradient Boosting

  • NGBoost

  • 决策树

SHAP 都能解释。

4 其他图示

🎲 一、特征值相关性热图

特征值相关性热图用于展示各特征之间的相关强弱,通过颜色深浅体现正负相关关系,帮助快速识别冗余特征、强相关特征及可能影响模型稳定性的变量,为后续特征选择和建模提供参考。

🎲 二、散点密度图

散点密度图通过颜色或亮度反映点的聚集程度,用于展示大量样本的分布特征。相比普通散点图,它能更直观地呈现高密度区域、异常点及整体趋势,常用于回归分析与模型评估。以下为训练集和测试集出图效果。

🎲 三、贝叶斯搜索参数优化算法及示意图

🌟 1. 先构建一个“参数-效果”的概率模型

贝叶斯优化会根据每一次调参的表现,持续更新一份“这个参数组合大概率能获得更好效果”的认知。
这份认知由一个代理模型承担,通常是高斯过程或树结构模型。它不像网格搜索那样盲目,而是先学、再试

🌟 2. 通过“探索”与“利用”平衡选点

贝叶斯优化每次选新的参数时都会权衡:

  • 探索:去试试没探索过的区域,可能藏着宝贝

  • 利用:去当前最可能效果最好的区域,稳扎稳打 这种带策略的试验方式,让调参过程既高效又不容易错过最优解。

🌟 3. 不断用真实结果修正判断

每试一个参数组合,代理模型就会重新更新“信念”,并重新预测哪些区域值得继续尝试。
调参越往后,模型越“聪明”,搜索路径越精确。这就像一个不断学习经验的调参工程师,越调越准。

🌟 4. 收敛快,适用于高成本模型

因为每一次试验都很有价值,贝叶斯优化通常只需几十次实验就能找到非常优秀的超参数组合。
这对训练成本高的模型(XGBoost、LightGBM、CatBoost、深度学习)尤其友好。

🌟 5. 程序能画非常直观的可视化

这幅图展示了超参数之间的相互作用及其对模型性能的影响,包括单参数敏感性曲线与双参数组合的响应面,可用于分析最优参数区域与模型对不同超参数的敏感程度。

该图展示贝叶斯优化过程中各超参数的重要性,对模型误差影响最大的为 n_estimators 和 learning_rate,其次为 max_depth,而 subsample 与 reg_lambda 贡献较小,用于判断调参优先级。

🎲 四、随机搜索参数优化算法及示意图

🌟 1、随机搜索是什么?

一句话概括:

随机搜索就是在超参数空间里不断“抽样试验”,从而找到表现最好的参数组合。

不同于按顺序走格子的调参方式,随机搜索会在整个参数空间中“自由跳跃”,每次从可能区域里随机挑选出一个参数组合,用最直接的方式评估模型的表现。

🌟 2、它的核心思路其实很聪明

虽然名字叫“随机”,但它背后的逻辑却非常高效。

✔ 1. 更广的覆盖范围

每次抽取的点都可能落在搜索空间的不同区域,让模型在有限的预算里探索更多潜在好参数。

✔ 2. 支持多种采样策略

你可以让 learning_rate 以对数分布抽取、让 n_estimators 偏向更大值,这让随机搜索能更贴近真实优化需求。

✔ 3. 每一次试验都独立有效

不依赖复杂的历史记录,适用于快速尝试、快速验证的场景。

换句话说: 它简单,但“简单得很有效”。

🌟 3、为什么它在实际调参中被广泛使用?

在许多模型中,超参数空间往往非常大,比如:

  • XGBoost 的树深、学习率、子采样比例

  • 神经网络的学习率、层数、节点数

  • CatBoost、LightGBM 的几十种可调参数

随机搜索能在这些复杂空间里迅速落点—— 不需要把所有组合都跑一遍,也不需要构建额外的代理模型,只需要不断抽样并测试结果。尤其在遥感反演、深度学习任务中,这种轻量但高覆盖的方式,往往能快速找到一个令人满意的初步最优解。

🌟 4、它适合什么场景?

简单总结几个典型应用:

  • 模型初调:快速找到可行参数范围

  • 大搜索空间:超参数众多、组合巨大时

  • 训练成本高:希望用少量试验找到较好解

  • 模型表现敏感:需要探索更大范围避免局部最优

这也是为什么随机搜索常被当作调参的起步策略,先探索,再进一步细化。

🌟 5. 程序能画非常直观的可视化

该图为超参数的成对散点矩阵图,展示不同超参数之间的分布特征与潜在关系,对角线上为各参数的概率密度分布,可用于分析参数空间结构与抽样多样性。

该图展示超参数与模型误差的相关性重要性排名,不同柱状高度反映各参数对 RMSE 的影响强弱,其中 reg_alpha、max_depth 和 learning_rate 贡献最高,有助于确定调参重点方向。

🎲 五、网格搜索参数优化算法及示意图

🌟 1、网格搜索是什么?

一句话概括:

网格搜索就是把所有设定好的超参数组合排成一个“网格”,逐个尝试,通过评估结果找到表现最佳的那一组参数。

就像在一个二维或多维坐标空间里,把所有候选参数都排列出来,然后把每个点都跑一遍,最终选出模型表现最优的位置。

🌟 2、它的核心原则:全面、稳定、逐点验证

网格搜索的理念非常直观:

  • 先定义每个参数可能的取值范围

  • 再把这些取值组合成一个完整网格

  • 然后对每个组合进行模型训练与验证

  • 最后选择最优结果对应的参数

这是一种系统化、无遗漏的搜索方式。它不会遗漏,也不会偏向,它用最直接的方式告诉你: 哪个参数组合最适合你的模型。

🌟 3、为什么网格搜索常被用作调参基础流程?

网格搜索的价值主要体现在几个方面:

✔ 1. 结构清晰、可控性强

你可以完全决定参数候选集,调参过程完全透明。

✔ 2. 适用于小范围、精细化的参数探索

特别适合探索学习率、树深、正则项等关键参数的小步长变化。

✔ 3. 方便结合交叉验证

与 Cross-Validation 结合后,能够获得稳定、可靠的参数评估结果。

✔ 4. 结果可复现、可追踪

每个组合都被尝试过,调参过程完整记录,适合科研工作。

🌟 4、典型应用场景

网格搜索广泛应用于:

  • XGBoost / LightGBM / CatBoost 的关键参数精调

  • SVM、随机森林、岭回归等模型的标准调参

  • 小规模搜索空间的系统验证

  • 科研论文中要求严谨、可复现的实验设计

在你的任务里,网格搜索非常适合用于关键参数的局部精调,确保模型在最佳点附近充分探索。

🌟 5. 程序能画非常直观的可视化

该图展示 GridSearchCV 调参过程中各超参数与 RMSE 的相关性重要性,其中 learning_rate、reg_alpha 和 n_estimators 影响最明显,可用于识别关键参数并指导后续调参方向。

5 代码包含具体内容一览

并将训练集和测试集的精度评估指标保存到 metrics. Mat 矩阵中。共两行,第一行代表训练集的,第二行代表测试集的;共 7 个精度评估指标,分别代表 R, R2, ME, MAE, MAPE, RMSE 以及样本数量。

保存的regression_result.mat数据中分别保存了名字为Y_train、y_pred_train、y_test、y_pred_test的矩阵向量。

同样的针对大家各自的数据训练出的模型结构也保存在model.json中,方便再一次调用。

调用的程序我在程序中注释了,如下

# 加载模型
# model.load_model("model.json") 

主程序如下,其中从1-10,每一步都有详细的注释,要获取完整程序,请转下文代码获取

# =========================================================
# 主程序
# =========================================================
def main():
    print("=== 1. 读取数据 ===")
    data = pd.read_excel("data.xlsx")
    X = data.iloc[:, :10].values
    y = data.iloc[:, 10].values
    feature_names = list(data.columns[:10])

    print("=== 2. 划分训练与测试 ===")
    X_train, X_test, y_train, y_test = train_test_split(
        X, y, test_size=0.2, random_state=42
    )

    print("=== 3. 归一化 ===")
    scaler_X = MinMaxScaler()
    scaler_y = MinMaxScaler()

    X_train_norm = scaler_X.fit_transform(X_train)
    X_test_norm = scaler_X.transform(X_test)
    y_train_norm = scaler_y.fit_transform(y_train.reshape(-1, 1)).ravel()

    print("=== 4. 模型训练 ===")
    model = train_model(X_train_norm, y_train_norm)

    print("=== 5. 预测(反归一化到原始尺度) ===")
    y_pred_train_norm = model.predict(X_train_norm)
    y_pred_test_norm = model.predict(X_test_norm)

    y_pred_train = scaler_y.inverse_transform(
        y_pred_train_norm.reshape(-1, 1)
    ).ravel()
    y_pred_test = scaler_y.inverse_transform(
        y_pred_test_norm.reshape(-1, 1)
    ).ravel()

    print("=== 6. 模型评估 ===")
    metrics_train = evaluate_model(y_train, y_pred_train)
    metrics_test = evaluate_model(y_test, y_pred_test)

    print("\n训练集评估指标:")
    for k, v in metrics_train.items():
        print(f"  {k}: {v:.4f}" if isinstance(v, float) else f"  {k}: {v}")

    print("\n测试集评估指标:")
    for k, v in metrics_test.items():
        print(f"  {k}: {v:.4f}" if isinstance(v, float) else f"  {k}: {v}")

    print("=== 7. 保存结果到 MAT 文件 ===")
    result_dict = {
        "y_train": y_train.astype(float),
        "y_pred_train": y_pred_train.astype(float),
        "y_test": y_test.astype(float),
        "y_pred_test": y_pred_test.astype(float),
    }
    savemat("regression_result.mat", result_dict)
    print("已保存 regression_result.mat")

    # 按指标顺序排列
    metrics_matrix = np.array([
        [metrics_train['R'],     metrics_test['R']],
        [metrics_train['R2'],    metrics_test['R2']],
        [metrics_train['ME'],    metrics_test['ME']],
        [metrics_train['MAE'],   metrics_test['MAE']],
        [metrics_train['MAPE'],  metrics_test['MAPE']],
        [metrics_train['RMSE'],  metrics_test['RMSE']],
        [metrics_train['样本数'], metrics_test['样本数']]
    ], dtype=float)
    savemat("metrics.mat", {"metrics": metrics_matrix})
    print("已保存 metrics.mat(矩阵大小 7×2)")

    print("=== 8. SHAP 分析 ===")
    X_combined = np.vstack([X_train_norm, X_test_norm])
    X_df = pd.DataFrame(X_combined, columns=feature_names)
    # shap_results = shap_analysis(model, X_combined, feature_names)
    plot_shap_dependence(model, X_combined, feature_names, X_df)

    print("=== 9. 密度散点图 ===")
    plot_density_scatter(
        y_test, y_pred_test, save_path="scatter_density_test.png"
    )
    plot_density_scatter(
        y_train, y_pred_train, save_path="scatter_density_train.png"
    )

    print("=== 10. 相关性热图 ===")
    correlation_heatmap(data, feature_names)

    print("=== 完成!===")

if __name__ == "__main__":
    main()

6 代码获取

Python | K折交叉验证的参数优化的随机森林RF及SHAP可解释性分析回归预测算法

https://mbd.pub/o/bread/YZWZm5ZpaQ==

Python | K折交叉验证的贝叶斯搜索参数优化随机森林RF及SHAP可解释性分析回归预测算法

https://mbd.pub/o/bread/YZWZm5Zpag==

Python | K折交叉验证的随机搜索参数优化随机森林RF及SHAP可解释性分析回归预测算法

https://mbd.pub/o/bread/YZWZm5Zpaw==

Python | K折交叉验证的网格搜索参数优化随机森林RF及SHAP可解释性分析回归预测算法

https://mbd.pub/o/bread/YZWZm5ZpbQ==

新手小白/python 初学者请先根据如下链接教程配置环境,只需要根据我的教程即可,不需要安装 Python 及 pycharm 等软件。如有其他问题可加微信沟通。

Anaconda 安装教程(保姆级超详解)【附安装包+环境玩转指南】

https://mp.weixin.qq.com/s/uRI31yf-NjZTPY5rTXz4eA

<think>嗯,用户想在Anaconda环境中用随机森林分类模型计算并可视化SHAP值。首先,我得确认需要的库和安装步骤。SHAP可能需要单独安装,用户可能已经安装了scikit-learn和pandas,但最好还是列出所有必要的包,比如shap、scikit-learn、pandas、matplotlib。 接下来,示例数据的选择。可能用鸢尾花数据集,因为它是分类的常用数据集,而且容易获取。然后,数据预处理部分需要划分训练集和测试集,可能还要标准化,不过对于树模型来说,标准化可能不是必须的,但用户可能会参考其他代码示例,所以还是提到比较好。 然后是模型训练,随机森林分类器,这部分比较直接。创建模型,训练,评估准确性,用户可能需要看到基本的评估指标,比如准确率,所以这部分要加上。 接下来是SHAP部分。需要创建TreeExplainer,这里要注意参数是否正确。比如,对于树模型,TreeExplainer是合适的。计算SHAP值时,分类模型可能会有多个输出,可能需要处理不同类别的SHAP值。比如,二分类和多分类的处理方式可能不同,示例中使用的是多分类的鸢尾花数据集,所以可能需要展示如何获取每个类别的SHAP值。 可视化部分,用户可能需要常见的图表,比如summary_plot、dependence_plot、decision_plot。要注意SHAP的版本是否支持这些图表,以及是否需要调用initjs()来初始化JavaScript,不过最新版本的SHAP可能不需要了,但为了兼容性,可能还是加上比较好。 还有,用户提到解决SHAP结果格式的问题,比如对多类别的SHAP值求和,可能需要用np.sum来处理,这在示例代码中有体现吗?可能需要检查代码是否正确处理多分类的情况,比如shap_values是一个列表,每个元素对应一个类别的SHAP值,所以在summary_plot中需要指定plot_type="bar"或者其他类型,可能需要调整。 另外,用户提供的引用中提到了feature_perturbation参数,需要确认在TreeExplainer中是否需要设置,比如"tree_path_dependent"是否适合随机森林模型。通常对于树模型,这个参数是正确的,应该包含在示例中。 还有环境配置的问题,用户使用Anaconda,可能需要提醒他们使用conda安装shap包,或者用pip安装。比如,conda install -c conda-forge shap 或者 pip install shap。 在代码示例中,是否需要加入保存图像的步骤?比如plt.savefig,或者用户可能更倾向于在Notebook中直接显示图表,所以用plt.show()更合适。 最后,生成的相关问题需要考虑用户可能的后续需求,比如优化SHAP计算速度、处理多分类的可视化、与其他可解释性工具对比,或者实际应用场景的例子。这些问题需要围绕SHAP随机森林分类模型展开,确保覆盖用户可能感兴趣的方面。</think>以下是在Anaconda环境中实现随机森林分类模型的SHAP值计算及可视化的完整步骤和示例代码: ### 环境准备 ```python # 安装必要库(Anaconda中已包含的库可跳过) conda install -c conda-forge shap scikit-learn pandas matplotlib ``` ### 完整实现代码 ```python import shap import pandas as pd from sklearn.datasets import load_iris from sklearn.ensemble import RandomForestClassifier from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # 加载数据 iris = load_iris() X = pd.DataFrame(iris.data, columns=iris.feature_names) y = iris.target # 划分数据集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 训练随机森林模型 rf = RandomForestClassifier(n_estimators=100, random_state=42) rf.fit(X_train, y_train) # 模型评估 y_pred = rf.predict(X_test) print(f"准确率: {accuracy_score(y_test, y_pred):.2f}") # 创建SHAP解释器 explainer = shap.TreeExplainer(rf, feature_perturbation="tree_path_dependent") # 计算SHAP值(返回列表结构,每个元素对应一个类别) shap_values = explainer.shap_values(X_test) # 可视化解释 shap.initjs() # 1. 特征重要性总览图 shap.summary_plot(shap_values, X_test, feature_names=iris.feature_names, class_names=iris.target_names) # 2. 单个样本决策图(以测试集第一个样本为例) shap.decision_plot(explainer.expected_value[0], shap_values[0][0,:], features=X_test.iloc[0], feature_names=iris.feature_names) # 3. 特定特征依赖图(以petal length为例) shap.dependence_plot("petal length (cm)", shap_values[0], X_test, interaction_index=None) ``` ### 关键点说明 1. **SHAP解释器配置**:使用`TreeExplainer`时需指定`feature_perturbation="tree_path_dependent"`,这适用于基于树的模型[^1] 2. **多分类处理**:分类模型会返回多个类别的SHAP值列表,可通过索引访问具体类别 3. **可视化选择**: - `summary_plot`展示全局特征影响 - `decision_plot`显示单个预测决策过程 - `dependence_plot`分析特征间交互作用 ### 典型输出示例 ``` 准确率: 1.00 ``` ![SHAP Summary Plot](https://shap.readthedocs.io/en/latest/_images/iris_summary_plot.png)
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Lwcah(全网各平台账号同名)

您的鼓励是我创作的最大的动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值