
机器学习
文章平均质量分 83
CoffreLv
平平淡淡,简简单单。
展开
-
从样本集到WOE、IV值的变迁
从样本集到WOE、IV值的变迁样本集在建模任务开始之前首先需要有训练数据,也就是样本集。在对样本集的所有特征数据进行整理和预处理后,就可以对每一个特征的各个取值计算WOE。WOE(Weight of Evidence)证据权重WOE是对原始特征的一种编码形式,要对一个变量进行WOE编码,需要首先把这个变量进行分组处理(也叫离散化、分箱),如果是离散变量可以直接进行编码。对每个分组或取值,响应比例(二分类取值为1的正样本比例)越大,WOE值越大;当前分组WOE的正负,由当前分组响应和未响原创 2021-11-04 19:00:00 · 292 阅读 · 0 评论 -
隐马尔科夫模型(HMM)与最大熵马尔科夫模型(MEMM)区别
HMM简述以骰子为例:骰子的种类数 ——> 隐含状态数量每种骰子是什么 ——> 转换概率掷骰子的结果 ——> 观察状态序列每次所掷的骰子 ——> 隐含状态序列HMM参数:隐含状态转移概率矩阵A观测状态转移概率矩阵B初始状态矩阵π\piπ隐含状态序列S观测状态序列O两个假设:齐次马尔科夫假设。又叫一阶马尔科夫假设,即任意时刻的状态只依赖前一时刻的状态,与其他时刻无关。观测独立性假设。任意时刻的观测只依赖于该时刻的状态,与其他状态无关。原创 2020-08-19 19:04:48 · 1226 阅读 · 0 评论