
机器学习
文章平均质量分 65
yunpeng.zhou
纸上得来终觉浅,绝知此事要躬身。
展开
-
机器学习总结四:逻辑回归与反欺诈检测案例
逻辑回归模型原理和损失函数推导;信用卡反欺诈案例;样本不平衡处理;特征衍生woe编码原创 2022-11-13 21:10:58 · 4510 阅读 · 1 评论 -
T检验、F检验、卡方检验、互信息法及机器学习应用
T检验、F检验、卡方检验统计学原理介绍;T检验、F检验、卡方检验案例计算;利用F检验(方差分析)和互信息法进行随机森林数字识别数据集特征筛选;使用卡方分箱进行连续值编码,生成woe编码。原创 2022-11-10 12:21:07 · 1949 阅读 · 0 评论 -
机器学习总结一:Bagging之决策树、随机森林原理与案例
决策树原理介绍,信息增益,信息增益率,基尼系数等公式和案例计算,随机森林原理,分类案例原创 2022-10-18 17:51:44 · 968 阅读 · 0 评论 -
机器学习总结三:SVM原理推导与案例
svm详细原理推导,svm 案例,绘制svm决策边界原创 2022-10-11 11:17:55 · 551 阅读 · 0 评论 -
机器学习总结二:boosting之GBDT、XGBT原理公式推导
集成算法boosting原理,gbdt、xgbt目标函数手动推导原创 2022-09-12 21:44:24 · 2585 阅读 · 0 评论 -
**机器学习类别变量常用编码方式(部分编码方式可以解决独热编码过于稀疏问题**)
机器学习,类别变量 各种编码方式 解决独热编码过于稀疏问题原创 2022-03-29 16:48:57 · 2299 阅读 · 0 评论 -
验证 CrossEntropyLoss 内部运算过程
验证 CrossEntropyLoss 内部运算过程import torchfrom torch.nn import CrossEntropyLossfrom torch.optim import SGD假设三分类真实值real 和预测值predreal = [0,1,1,2]pred = [[0.7,0.2,0.1],[0.1,0.6,0.3],[0.1,0.6,0.3],[0.2,0.2,0.6]]real = torch.tensor(real)pred = torch.tens原创 2022-02-09 09:37:45 · 616 阅读 · 0 评论 -
gensim简单使用
详细了解参见这篇,写的很棒https://blog.youkuaiyun.com/imsuhxz/article/details/87337608原创 2022-01-30 15:41:53 · 2142 阅读 · 0 评论 -
xgboost的predict接口输出问题以及相关参数的探究(evals、evals_result、verbose_eval、pred_leaf、pred_contribs)、利用gbdt进行特征组合
一、一直对xgboost的输出有些疑惑,这里记录一下1.xgboost的predict接口输出问题(参数pred_leaf、pred_contribs)2.训练过程中输出相关参数的探究(evals、evals_result、verbose_eval)3.多分类内部原理探究(不涉及源码)4.利用gbdt进行特征组合问题(gbdt+lr)二、导入验证数据,验证问题针对问题1# 导入数据import xgboostfrom sklearn.datasets import load_iris(多分原创 2022-01-30 10:54:53 · 6267 阅读 · 0 评论 -
不同算法下校准曲线对比
from sklearn.datasets import make_classificationfrom sklearn.calibration import calibration_curve # 校准曲线from sklearn.ensemble import RandomForestClassifierfrom sklearn.naive_bayes import GaussianNBfrom sklearn.linear_model import LogisticRegressionfr原创 2021-10-22 10:12:28 · 1195 阅读 · 0 评论