- 博客(3)
- 资源 (5)
- 收藏
- 关注
原创 损失函数-分类任务
分类任务的损失函数的设置y*f(x)被称为margin,类似于回归分析中的残差,例子:sign(f(x)) = +1/-1, f(x)>0/f(x)<0yf(x)>0,则表示样本分类正确,yf(x)<0则表示分类错误;所以分类任务尽量要最大化marginHinge Loss/Multi class SVM Loss中文名叫铰接损失,用来作为分类器的损...
2019-07-23 08:54:52
1240
原创 损失函数介绍-回归问题篇
损失函数是机器学习算法中的目标,是用来评定数据建模程度的方法。如果预测值和实际结果偏差较远,损失函数的值就会偏大,反之则较小。损失函数从广义层面分为两类:回归损失函数和分类损失函数。回归损失均方误差、平方损失、L2损失这个函数的含义很明确,就是观测值和实际值的平方误差,这个损失函数的梯度属性较好,比较容易求得最低值。L1损失MAE计算会比较困难,需要使用线性规划的工...
2019-07-02 08:53:43
408
原创 GBDT算法
GBDT算法是集成学习树算法的一种。我们先来说下什么是集成学习。集成学习集成学习(ensemble learning)通过构建并结合多个学习器来完成学习任务。集成学习的一般结构:先产生一组“个体学习器”,在用某种策略把这些学习器的结果结合起来。集成学习可以集成同质的学习器:基学习器全部是全是决策树,或者是全部是神经网络; 也可以结合不同类型的个体学习器:例如同时包含决策树和神...
2019-07-01 07:24:12
317
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人