
机器学习细节研讨
文章平均质量分 87
云从天上来
只要还没有卷死在算法的路上,就一直卷,卷到摸到门槛为止
展开
-
机器学习/深度学习 模型修正能力
模型修正和模型修正能力,具体是什么?包含哪些具体的内容?原创 2024-03-12 14:16:40 · 818 阅读 · 1 评论 -
传统机器学习聚类算法——总集篇
传统机器学习中的聚类算法——总集篇,描述了层次、划分、密度、网格、模型5种聚类算法,并附带了简单描述和相关经典算法。后续会针对不同类型聚类算法撰写博客原创 2023-10-04 17:12:23 · 901 阅读 · 0 评论 -
LightGBM 的优点(相较于XGBoost) + 细节操作 讲解 (一)
LightGBM相较于XGBoost的优势,以及各优势如何实现,实现的具体表现是什么。主要包含XGB的缺陷,LightGBM的优势,以及LightGBM中基于直方图的决策树最优分割点选取 + Leaf-wise叶子节点生成策略。原创 2023-04-02 23:46:59 · 1163 阅读 · 0 评论 -
将连续型特征离散化的需要 or 优势
越是离散的特征、越是非线性模型,其建模能力越强,泛化性也就越强。那么连续型特征在离散化后的具体优势在哪里呢原创 2023-03-28 16:04:58 · 462 阅读 · 0 评论 -
数据挖掘中白化处理的作用和具体操作,以及白化在NLP、多模态领域的妙用
数据挖掘中白化处理的作用和具体操作,以及白化在NLP、多模态领域的妙用原创 2023-03-22 17:28:17 · 2002 阅读 · 0 评论 -
回归模型中的多重共线性 + 危害 + 原因 + 判断标准 + 解决办法,回归系数
回归模型中的多重共线性 + 危害 + 原因 + 判断标准 + 解决办法,以及相关概念原创 2023-03-17 11:46:24 · 28340 阅读 · 6 评论 -
L1、L2正则化的原理及适用场景
L1和L2正则化的适用范围;L1为何比L2更容易获得稀疏解原创 2023-01-29 19:19:58 · 5651 阅读 · 0 评论 -
机器学习项目中Xgboost深入理解(二)梯度及GB的理解
XGBOOST 与 GBDT同源,G/梯度是什么意思?GB/梯度提升又代表什么原创 2022-12-15 11:19:18 · 800 阅读 · 0 评论 -
应聘深度学习视觉算法/研发岗位的复习历程(二)机器学习中常见的概念和内容
本节主要是学习一些机器学习中常见的概念和内容。1. LR(逻辑回归):本质上是一个分类算法,多用于2分类,也用于多分类。是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。这种可能性并非是概率,而是一种有限的带有明确定义的离散值。(1) 逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model)。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y原创 2020-07-08 23:20:46 · 262 阅读 · 0 评论 -
应聘深度学习视觉算法/研发岗位的复习历程(三)ROC,AUC,梯度优化算法
投字节提前批算法岗,简历都没有过。。确实菜的抠脚,没办法只能继续复习了!这一次主要学习(1) ROC曲线的意义以及制作方法;(2) AUC面积的意义;(3)优化算法SGD,Momentum,AdaGrad,RMSProp,Adam的公式/特点/优缺;(4) 简单了解Bagging和Boosting机制以及他们与偏差、方差的关系。1. ROC曲线的制作方法及意义(图是从博客一里面直接抄过来的,但是图原本也是别人的。。。很尴尬)首先复习下基础知识:召回率(recall) or 敏感度(sens.原创 2020-08-01 22:32:08 · 416 阅读 · 0 评论 -
应聘深度学习视觉算法/研发岗位的复习历程(一)梯度爆炸和梯度消失的含义及解决办法 PS:硬生生逼出了写博客的习惯,太惨了
1. 批量归一化(BN)(1) 一般来说在CV深度学习模型训练中,我们是要在卷积层后加入BN层的,原因来于Feature map在经过卷积层后,特征分布可能会有变化,BN就是为了解决这个问题加入的,它使得feature map的分布重新归于均值0和方差1,但是一般的归一化就是分子减去均值,分母是方差的开跟,这有一个严重的问题,见(2)。(2) 如果对feature map使用单纯的归一化操作,就可能发生,网络中间某一层学习到特征数据本身就分布在S型激活函数的两侧,归一化强制把标准差限制在了1,把数据原创 2020-07-08 23:20:25 · 667 阅读 · 0 评论 -
应聘深度学习视觉算法/研发岗位的复习历程(五)机器学习分类算法 逻辑回归 决策树 SVM
这里是不可能一点点推公式(因为太麻烦了- -,后续可能会补),只介绍大体的定义概念以及个人理解。原创 2020-09-11 17:37:34 · 1082 阅读 · 0 评论 -
应聘深度学习视觉算法/研发岗位的复习历程(四)过拟合和欠拟合的含义及解决办法
本章节,单独开一章,为了学习机器学习、深度学习中过拟合的解决方案以及其中细节和原因。1. 在视觉任务重,很自然可以联想到数据增强 or 增加数据量2. L1正则化:获得具有稀疏性的权重/参数,能够用于特征选择,即特征工程,筛选组合得到更高质量的特征。一般情况下,线性回归损失函数如右图所示:首先要理解,认真的讲,0范数(L0范数是指向量中非0的元素的个数)和1范数都能求得稀疏解,但是因为低1范数的都不是凸的,所以L0范数很难优化求解(NP难问题,L0为一个0-1跃阶函数),NP难我也不太懂,反原创 2020-08-01 22:57:10 · 520 阅读 · 0 评论