
机器学习
机器学习
zhulinniao
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
记录一下二分混淆矩阵
记录一下二分混淆矩阵1 二分混淆矩阵2 二分混淆矩阵使用1 二分混淆矩阵 预测 recall【召回率】 recall【错误率】 实际 P【Positeve】 TP【True Positeve】 FN 【False Negative】假阴性 【错误拒绝数】:把正样本认为是负样本 TP / (TP + FN) 【FALSE Negative Rate】错误拒绝率 FNR = F原创 2020-07-02 17:04:42 · 473 阅读 · 0 评论 -
理解xgboost与gbdt区别
理解xgboost与gbdt区别Xgboost和gbdt区别1 Xgboost的多棵树集成概念2 Xgboost的学习策略3 Xgboost的优化函数3.1 Xgboost原始优化函数3.2 选定MSE(均方差)作为损失函数3.3 直接选定泰勒公式展开ReferenceXgboost和gbdt区别【 Xgboost用了】泰勒公式展开即用到了二阶,普通GBDT(提升树)只用到了一阶L1正...原创 2020-01-05 22:14:25 · 557 阅读 · 0 评论 -
树
树之总结1 前文1.1 决策树基础知识1.2 算法对比2 ID32.1 ID算法描述2.2 信息熵(entropy)2.3 信息增益Gain(S,A)——信息度量期望的熵降低2.4 信息增益案例3 C4.53.1【分离信息Split Information】3.2 【信息增益率Information gain ratio】3.3【连续性数据离散化处理】3.4 剪枝3.5【悲观后剪枝案例】4 C5....原创 2019-11-24 21:15:56 · 553 阅读 · 0 评论 -
理解softmax
ziL=∑kwkiLakL−1+bkiL=第L层第i个神经元的值=第L−1层所有神经元的加权输出yjL=softmax(zjL)=ezjL∑ieziL=第L层第j神经元的指数化第L层所有神经元指数化求和\begin{aligned} & z_{i}^{L}=\sum\nolimits_{k}{w_{ki}^{L}a_{k}^{L-1}+b_{ki}^{L}}=第L层第i个神经元的值=...原创 2019-12-22 21:18:50 · 302 阅读 · 0 评论 -
理解准确率和召回率
理解准确率和召回率1 混淆矩阵解释2 召回率和准确率定义3 混淆矩阵Reference1 混淆矩阵解释2 召回率和准确率定义召回率(Recall)=系统检索到的相关文件系统所有相关的文件总数=正确预测为狗的个数系统真实是狗的个数召回率(Recall)=\frac{系统检索到的相关文件}{系统所有相关的文件总数}=\frac{正确预测为狗的个数}{系统真实是狗的个数}召回率(Recall...原创 2019-12-22 20:07:55 · 1015 阅读 · 1 评论 -
PLS系列001 数据预处理
偏最小二乘法1 数据预处理1.1 均值|方差|协方差|相关系数1.2 数据标准化1 数据预处理1.1 均值|方差|协方差|相关系数矩阵数据表X=(x1,x2,⋯ ,xi,⋯ ,xp)X=({{x}_{1}},{{x}_{2}},\cdots ,{{x}_{i}},\cdots ,{{x}_{p}})X=(x1,x2,⋯,xi,⋯,xp)是一个n×pn\times pn×p (m行n列...原创 2019-11-24 22:24:03 · 1517 阅读 · 0 评论 -
PLS系列002 多因变量线性PLS
偏最小二乘法中的数据预处理1 数据预处理1.1 均值|方差|协方差|相关系数1.2 数据标准化Reference1 数据预处理1.1 均值|方差|协方差|相关系数矩阵数据表X=(x1,x2,⋯ ,xi,⋯ ,xp)X=({{x}_{1}},{{x}_{2}},\cdots ,{{x}_{i}},\cdots ,{{x}_{p}})X=(x1,x2,⋯,xi,⋯,xp)是一个n×pn\...原创 2019-12-22 11:04:17 · 1497 阅读 · 2 评论 -
PLS系列003 单因变量线性PLS
单因变量线性偏最小二乘法1 单因变量线性PLS1.1 计算推导1.2 辅助分析技术Reference1 单因变量线性PLS1.1 计算推导由于在多因变量线性偏最小二乘法中,我们已经讨论了计算推导,在此,我们将但因变量进行简化计算推导过程:①样本数据XXX与YYY标准化预处理②记t1{{t}_{1}}t1是XXX的第1个成分有t1=Xw1{{t}_{1}}=X{{w}_{1}}t1=X...原创 2019-12-22 11:06:52 · 852 阅读 · 0 评论 -
PLS系列004 多因变量非线性PLS
多因变量非线性PLS1 多因变量非线性PLS[不是拟线性方法]1.1 计算推导1.2 简化算法1.3 性质Reference1 多因变量非线性PLS[不是拟线性方法]1.1 计算推导在PLS进行之前,首先要进行预备分析,目的是判断自变量(因变量)是否存在多重共线性,判断因变量与自变量是否存在相关关系,进而决定是否需要采用PLS方法建模,具体计算方法:记矩阵Z=(X,Y)Z=(X,Y)Z=(X...原创 2019-12-22 11:08:46 · 1187 阅读 · 1 评论