
机器学习
文章平均质量分 88
机器学习
爱编程的西瓜
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习第14-15章
吴恩达机器学习第14-15章第十四章14-1 目标I:数据压缩数据压缩能够让我们的算法提升速度。首先举了一个厘米和英尺的例子,因为厘米本身可以转化为英尺,所以可以将数据进行压缩。再举一个例子,是将三维降到两维。将点全部投影到平面上,然后重新用Z1和Z2坐标来表示屏幕向量。14-2 目标II: 可视化在做对GDP的调查中,数据特征总共有50维,而经过处理,将数据特征降低要2维。14-3 主成分分析(PCA)问题规划1我们用直线拟合数据时,可以观察数据集到直线上投影的距离。而PCA所做的原创 2022-04-29 16:26:00 · 1062 阅读 · 0 评论 -
吴恩达机器学习第12-13章
吴恩达机器学习第12-13章第12章12-1 优化目标在监督学习中,很多监督学习算法的性能都非常相似,所以经常要考虑的东西不是你要去选取A算法或者B算法,而是更多地考虑你构建这些算法时所使用的数据量,这就体现了你应用这些算法时的技巧。比如你所设计的用于学习算法的特征的选择以及正则化参数的选择等等。但是还有一个更加强大的算法,它广泛地应用于工业界和学术界,它被称为支持向量机。与logistic回归和神经网络相比,支持向量机或称为SVM,在学习复炸的非线性方程时,能够提供一种更为清晰和更加强大的方式。我原创 2022-04-27 17:16:21 · 207 阅读 · 0 评论 -
吴恩达机器学习第10-11章
吴恩达机器学习第10-11章第十章10-1 下一步决定做什么1我们现在将重点关注的问题是,假如我们在研发一个机器学习系统或者想着试着改进一个机器学习系统的性能,我们应该如何决定,接下来应该选择哪一条道路。我们仍然以房价预测的例子来讲解。当我们发现预测值和真实值的误差很多时,接下来应该怎么办。其中一个办法是我们可以训练更多的训练集。另外我们还可以尝试更少的特征。或者可以试图得到更多的特征。当然我们也可以采用增加多项式特征的方法,还可以增加或减少正则化参数λ。方法很多,就意味着我们选择就相当困难,有原创 2022-04-25 15:34:12 · 847 阅读 · 0 评论 -
吴恩达机器学习第8-9章
吴恩达机器学习第8-9章第8章8-1 非线性假设对于一个复杂的样本模型,如果用logistc回归算法的话,很容易产生过拟合,当特征数很大的时候,会使特征空间急剧膨胀,用增加特征数,来建立非线性分类器,并不是一个好做法。在计算机视觉中,计算机看到的实际是一个数据矩阵,若像素点达到3百万个时,特征数也是3百万个,用ligistic回归算法的话,时间成本是相当高的。8-2 神经元和大脑神经网络的起源是去试图模仿人的大脑。我们能用神经网络去学习触觉,嗅觉等等。例如,我们可以用舌头去训练看的能力、我们可原创 2022-04-22 16:38:06 · 179 阅读 · 0 评论 -
吴恩达机器学习第6-7章
吴恩达机器学习第6-7章由于第5章主要讲的是Octave的语法,但现在我们主要用的都是python来进行AI编程。所以第五章我们就不总结了,感兴趣的朋友可以去看看。第6章6-1 分类分类在现实生活中运用到的地方非常多,比如垃圾邮件分类、网络欺诈、肿瘤的预测。正类一般表示为1,负类一般表示为0.当然,多分类问题的话会有0,1,2,3等的标记,对于肿瘤的预测,如果预测函数的结果大于0.5,则我们预测为正类,相反则为负类。有时候我们的预测算法可能的结果会大于1或者小于0,这显然是有点怪的。所以之后原创 2022-04-19 19:44:26 · 994 阅读 · 0 评论 -
吴恩达机器学习第3-4章
吴恩达机器学习第3-5章第三章第三章主要讲解矩阵的基础知识,如果你考过研了,你可以跳过。如果没有考过研的话,需要认真看一看,但由于讲得比较基础,可能会有很多不懂的地方,你可以找一找讲线性代数的课程看一看。第四章4-1多变量若我们有四个特征量,当我们有多个特征值后,我们的预测方程就应该变化。为了方便表达,我们会令x0=1,相当于额外定义了一个特征量x0。之后的预测方程就可以变为4-2 多元梯度下降根据上一章得出的多元特征的预测函数和代价函数,则可以得出他的新梯度下降的表示形式。4原创 2022-04-19 11:26:25 · 1083 阅读 · 0 评论 -
吴恩达机器学习第1-2章
新手小白学习机器学习,希望能记录自己的学习过程,希望大神能友好的给出建议。原创 2022-04-17 21:51:29 · 563 阅读 · 0 评论 -
机器学习篇-逻辑回归的分类预测
机器学习篇-逻辑回归的分类预测1 逻辑回归的介绍和应用1.1 逻辑回归的介绍逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。而对于逻辑回归而且,最为突出的两点就是其模型简单和模型的可解释性强。逻辑回归模型的优劣势:优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;缺点:容易欠拟原创 2022-04-14 11:46:01 · 5440 阅读 · 1 评论