(信贷风控十一)随机森林在催收评分卡还款率模型的应用(python代码实现)

本文介绍了随机森林在催收评分卡还款率模型中的应用,详细阐述了还款率模型的构建,并提供了Python代码实现。模型包括还款率模型、账龄滚动模型和失联预测模型,重点探讨了基于回归树的随机森林模型的训练步骤。通过设定阈值,可以进一步用逻辑回归预测客户是否可催回。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

(十一)随机森林在催收评分卡还款率模型的应用(python代码实现)

催收评分卡和申请评分卡和行为评分卡不太一样,一般申请评分卡和行为评分卡使用一个模型就可以了,但是催收评分卡由三个模型构成:(不同的模型功能目的不一样,其中失联预测模型是比较重要的)

  • 还款率模型
  • 账龄滚动模型
  • 失联预测模型

这篇博客以还款率模型进行讲解,要讲解还款率模型,我们首先要了解一下随机森林模型

基于回归树的随机森林(元分类器是由许多回归树构成,每一个元分类器模型并行运行得出一个预测值,取所有元分类器模型的平均值作为最终的预测值)

 

随机森林模型的训练步骤

 

如何建立还款率模型呢?

 

代码如下,数据可以在我的资源下载,当然了,还款率模型完之后还可以对其进行延伸,预测出来的催回还款率假设定一个阈值(80%,自己可以定),大于80%为可摧回,小于为不可催回,之后可以使用二分类的逻辑回归对客户情况进行预测该客户是可摧回还是不可催回:

import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestRegressor
from sklearn.model_selection imp
92讲视频课+16大项目实战+课件源码  为什么学习数据分析?       人工智能、大数据时代有什么技能是可以运用在各种行业的?数据分析就是。      从海量数据中获得别人看不见的信息,创业者可以通过数据分析来优化产品,营销人员可以通过数据分析改进营销策略,产品经理可以通过数据分析洞察用户习惯,金融从业者可以通过数据分析规避投资险,程序员可以通过数据分析进一步挖掘出数据价值,它和编程一样,本质上也是一个工具,通过数据来对现实事物进行分析和识别的能力。不管你从事什么行业,掌握了数据分析能力,往往在其岗位上更有竞争力。   本课程共包含五大模块: 一、先导篇: 通过分析数据分析师的一天,让学员了解全面了解成为一个数据分析师的所有必修功法,对数据分析师不在迷惑。  二、基础篇: 围绕Python基础语法介绍、数据预处理、数据可视化以及数据分析与挖掘......这些核心技能模块展开,帮助你快速而全面的掌握和了解成为一个数据分析师的所有必修功法。 三、数据采集篇: 通过网络爬虫实战解决数据分析的必经之路:数据从何来的问题,讲解常见的爬虫套路并利用三大实战帮助学员扎实数据采集能力,避免没有数据可分析的尴尬。  四、分析工具篇: 讲解数据分析避不开的科学计算库Numpy、数据分析工具Pandas及常见可视化工具Matplotlib。  五、算法篇: 算法是数据分析的精华,课程精选10大算法,包括分类、聚类、预测3大类型,每个算法都从原理和案例两个角度学习,让你不仅能用起来,了解原理,还能知道为什么这么
### Python 实现催收评分卡代码示例 #### 数据准备与加载 首先,确保数据已经经过适当清理和预处理。这里假设已经有了一个干净的数据集 `collections_data.csv`。 ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler, OneHotEncoder from category_encoders.ordinal import OrdinalEncoder from sklearn.compose import ColumnTransformer from sklearn.pipeline import Pipeline from sklearn.linear_model import LogisticRegression from sklearn.metrics import roc_auc_score, classification_report import numpy as np # 加载数据 data = pd.read_csv('./data/collections_data.csv') # 特征工程:选择特征列并定义转换器 numeric_features = ['age', 'income'] categorical_features = ['gender', 'education_level'] preprocessor = ColumnTransformer( transformers=[ ('num', StandardScaler(), numeric_features), ('cat', OneHotEncoder(handle_unknown='ignore'), categorical_features)]) X = data.drop(['default'], axis=1) y = data['default'] # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42) # 构建管道 pipeline = Pipeline(steps=[('preprocessor', preprocessor), ('classifier', LogisticRegression())]) # 训练模型 pipeline.fit(X_train, y_train) # 预测概率得分 probs = pipeline.predict_proba(X_test)[:, 1] # 输出AUC评估指标 print(f"AUC Score: {roc_auc_score(y_test, probs)}") # 打印分类报告 predictions = (probs >= 0.5).astype(int) print(classification_report(y_test, predictions)) ``` 这段代码展示了如何构建一个简单的二元逻辑模型用于预测违约可能性,并计算了 AUC 值来衡量性能[^3]。 #### 创建评分函数 基于上述模型的结果,下面是一个简化版的评分机制: ```python def get_score(probability): """ 将违约概率转化为分数. 参数: probability (float): 违约的概率 返: int: 对应于输入概率的险评价值 """ base_points = 600 # 设定基础分为600分 odds_ratio = probability / (1 - probability) factor = 20 / np.log(2) # 定义PDO为20点每倍数变化 offset = 600 - factor * np.log(odds_ratio) score = round(base_points + offset) return max(min(score, 900), 300) # 制范围在300至900之间 # 应用评分函数到测试集中每个样本 scores = [get_score(p) for p in probs] ``` 此部分实现了将连续型的概率输出映射成离散化的信用评分体系,其中包含了基本参数设定如基础分、比例因子等[^2]。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

路易三十六

你的鼓励是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值