自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 机器学习-线性回归

正则化回归是解决。

2025-05-06 22:03:13 2214

原创 机器学习-逻辑回归

  "逻辑"这个词在这里与日常的逻辑思维无关,而是特指它所使用的逻辑函数(Logistic Function),也就是我们常说的Sigmoid函数。其形式为:它能将任何实数映射到(0,1)区间,完美地表示概率。这个术语最早可以追溯到19世纪,用来描述某些对数增长曲线,后来被统计学家借用来命名这个特殊的函数。2、为什么叫"回归"而不是"分类"        明明是一个处理分类任务的模型,为什么逻辑回归为什么不叫做逻辑分类。   从模型结构来看,逻辑回归其实是线性回归的自然延伸。逻辑回归首先计算特

2025-04-28 13:53:32 1981

原创 机器学习-随机森林

随机森林(Random Forest)是基于 Bagging 集成策略的机器学习算法,借助构建多棵去相关的决策树来实现协同预测。其核心在于独特的双重随机性机制:数据层面的随机性(Bootstrap Aggregating):对原始训练集D进行T次有放回抽样,生成T个大小为n的子集{Dt​}t=1T​ 。根据概率计算,每个子集的期望唯一样本占比为:

2025-04-23 18:59:51 4922

原创 机器学习决策树

同时,基尼指数对类别分布的变化更为敏感,当类别概率发生变化时,其数值变化比信息熵更为剧烈,这一特性在某些应用场景下可能带来更好的分类效果。CART算法通过基尼指数的优化使用,实现了对ID3和C4.5算法的改进,在保持模型解释性的同时提升了计算效率和泛化能力。为防止过拟合,算法引入悲观剪枝策略,通过统计修正来优化决策树的复杂度,显著提升了模型的泛化能力。)这一特性与信息熵的概念相似,都能刻画数据集的混乱程度,但基尼指数的计算过程省去了对数运算,在保持与熵相近的曲线特性的同时具有更高的计算效率。

2025-04-13 23:26:17 1022 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除