- 博客(234)
- 收藏
- 关注
原创 python中 global 和 nonlocal 关键词的区别
nonlocal 是将局部变量和其上一层的变量进行连接,即修改了该局部变量的值,其上一层的变量的值也会随之改变,但其他中间层局部作用域以及全局的变量不受影响。global 将局部变量和全局变量进行连接,即修改了局部变量的值,全局变量的值也会随之改变,但中间层局部作用域的变量不受影响;
2024-01-29 10:32:36
298
原创 Brian Kernighan 算法应用
Brian Kernighan算法,也被称为布莱恩·柯林汉算法,是一种用于统计二进制中位数为1的个数的高效算法。该算法通过不断清除二进制数中最右侧的1来计算1的个数,直到二进制数变为0为止。
2024-01-24 10:20:52
588
原创 三种决策树算法
这一过程持续进行,直到满足停止条件,比如节点中的样本数量少于预设的阈值,或者节点的不纯度降至某个水平以下。(Information Gain),信息增益是基于熵(entropy)的概念,熵是用来衡量数据集中的不确定性或纯度的一个指标。为了克服这个问题,C4.5引入了信息增益比,这个指标考虑了特征的内在信息,并且对具有大量值的特征进行惩罚。剪枝:C4.5使用后剪枝方法来避免过拟合,这意味着它首先生成一个完整的树,然后删除那些对分类效果贡献不大的节点。(被称为复杂度参数),用于控制树的复杂度和拟合的程度。
2023-12-15 14:09:38
222
原创 逻辑回归的损失函数和目标函数
逻辑回归通常使用对数损失函数(Log Loss),也称为逻辑损失或交叉熵损失(Cross-Entropy Loss)。在训练过程中,通过梯度下降或其他优化算法最小化目标函数,从而找到使损失最小化的权重 ( w ) 和偏置 ( b ) 的值。通常目标函数也包括正则化项,如L1或L2正则化,以防止过拟合和改善模型的泛化能力,这部分被称为。在逻辑回归中,目标函数通常是最小化所有训练样本上的平均损失,也就是最小化。是线性模型的预测值,( w ) 是权重向量,( b ) 是偏置项。是正则化项的强度参数,
2023-12-14 17:18:20
617
原创 一文搞懂二叉树后序遍历的三种方法
总体上分为两种框架,递归框架和非递归框架,递归框架又分为两种思路:分解思路和遍历思路。下面代码对三种方法逐一实现。
2023-10-09 17:48:19
302
原创 一文搞懂二叉树中序遍历的三种方法
总体上分为两种框架,递归框架和非递归框架,递归框架又分为两种思路:分解思路和遍历思路。下面代码对三种方法逐一实现。
2023-10-09 16:01:19
333
原创 一文搞懂二叉树先序遍历的三种方法
总体上分为两种框架,递归框架和非递归框架,递归框架又分为两种思路:分解思路和遍历思路。下面代码对三种方法逐一实现。
2023-10-09 15:38:49
218
原创 快速排序及其拓展应用
快速排序是二叉树的前序遍历,归并排序是二叉树的后序遍历。快速排序的过程其实就是一颗二叉搜索树构造的过程。先将一个元素排好序,然后再将剩下的元素排好序。
2023-10-06 10:44:35
122
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人