机器学习
文章平均质量分 90
yzd111
努力成为练习一坤年的初级程序员
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习-聚类算法
我们之前的训练数据都是一个特征对应一个标签,但是对于无监督学习来讲,仅需要数据本身,不需要添加标签。这种聚类算法可以被用于市场划分,新闻消息分组,DNADNADNA检测,天文数据分析。原创 2024-09-25 17:22:45 · 1087 阅读 · 0 评论 -
机器学习-决策树
我们将要抽样的数据集放在一个袋子里,每次选择其中一个,然后放回继续抽取,最终我们可以得到一个跟原先数据集很相似,但是又不完全相同的新的数据集,这是构造决策树集合的关键步骤。为了说明纯度,我们引入了熵这个概念。我们对之前的决策树进行泛化操作,使得原本仅可以判断分类的决策树也可以实现回归问题,跟决策树相同,仅仅在输出结果时将原本的分类改为分类的重量平均值,实现了对于重量的预测。对于连续的特征值,我们可以尝试不同的阈值,分别计算对应的信息增益,最终计算出最高的那个阈值,并使用这个作为我们的分裂特征。原创 2024-08-29 01:25:19 · 1535 阅读 · 0 评论 -
机器学习分类
Field of study that gives computers that ability to learn without being explicitly programmed.used most in real-wold applications目的:学习输入到输出的映射的统计规律回归问题:房价预测目的:从无限多的可能输出中预测一个数字(输入和输出是连续的)分类问题:乳腺癌检查目的:从少量可能的输出中预测类别(输入和输出是离散的)区分:目的:学习数据中的统计规律或潜在结构,相比较于监督学习原创 2024-08-25 22:37:18 · 301 阅读 · 0 评论 -
机器学习-多元线性回归
在前面的章节中,我们仅仅使用了一个变量x,接下来我们将考虑多个变量的影响。xj:第j个特征n:表示特征的数目,有n列xi:表示第i个训练示例,也可以称为一组行向量xji:表示第j个特征的第i个训练示例我们可以将上面的逐个相乘再相加的式子写成一个向量之间点乘的形式,更加简洁。通过引入多个特征,这也被称为多元线性回归。原创 2024-08-25 22:36:26 · 1087 阅读 · 0 评论 -
机器学习-模型选择与评估
因此我们可以看到对于图像识别问题,前几层所提取的信息,无论是对于车辆识别还是数字识别来讲,都是类似的,我们可以仅调整最后一层的输出,使得符合我们自己训练的数据集。对于逻辑回归问题来讲,当我们提高阈值,那么我们的精准度就会上升,但是召回率就会下降,相反,如果降低阈值,那么我们的精准度就会下降,但是召回率就会上升,因此我们需要通过手动的方式选择一个合适的阈值。第四步,我们将项目部署在服务器上,通过使用其中的数据可以优化系统性能,同时当我们的模型无法很好的工作的时候可以选择重新训练一个新的模型来替代原有的模型。原创 2024-08-25 22:31:41 · 691 阅读 · 0 评论 -
神经网络-逻辑回归
我们不再采用一条拟合直线而是采用一条SSS型的曲线,也就是右边的sigmoidsigmoidsigmoid函数也称为logisticlogisticlogistic函数。我们仍然会使用一条直线zw→⋅x→bzw⋅xb,然后将这个zzz作为自变量带入sigmoidsigmoidsigmoid函数继续计算,求出最终的结果。w⃗bf。原创 2024-08-25 22:30:46 · 1151 阅读 · 0 评论 -
机器学习-线性回归
如果将这个图从水平切开,那么也就会得到右上角的图。作为代价函数来判断,最终使得我们得到的。为了更好的看到变化,我们将。,那么就会得到一个3D碗状的等高线图。的值最小,在数学中我们常常将其写为。可以看到在图中训练集的情况下,选择。:输入变量,也称为特征或输入特征。:模型,获取输入并给出对应的输出。的模型来讲,我们需要调整它的参数。使得可以更好的看到图像的不同。:参数,也被称为系数或者权重。训练集:用于训练模型的数据。:输出变量,也称为目标变量。= 第 i 个训练示例。:预测,也称为估计值。原创 2024-08-25 20:24:17 · 1113 阅读 · 0 评论 -
机器学习-神经网络
我们现在要学习一下为什么需要非线性的激活函数,如果我们仅仅只是使用线性的激活函数,那么无论我们的隐藏层中有多少的神经元我们也无法拟合一个非线性的目标函数。,但是对于正向累计来讲,由于每次计算一个导数都需要遍历后面的节点,因此它的时间复杂度远远大于反向累积,同时由于它不需要存储中间变量,它的空间复杂度很低。我们可以有多个隐藏层,同时每个隐藏层中的具体特征选择不需要我们自己考虑,但是总共的层数和每层的神经元数量需要我们选择。操作,因此我们最后的结果依然是具体的数值而不是概率值,因此需要在最后的结果预测时经过。原创 2024-08-25 20:23:10 · 650 阅读 · 0 评论 -
机器学习-梯度下降
试想一下,你在一个山坡上寻找一个最快的下坡方法。首先360360360度旋转一周你会找到一个当前最陡峭的方向,沿着这个方向走一步。重复上面的操作,继续旋转360360360度,这个时候你会再次找到一个最陡峭的方向,重复该操作,直到你到达谷底。同时,你可以选择wbw,bwb的值使得你的起始位置不同,从而可能到达不同的谷底,也就是局部最小值。原创 2024-08-25 20:21:54 · 1551 阅读 · 0 评论
分享