
人工智能
freshbin000
默默搬砖
展开
-
机器学习-第一篇
关于机器学习的笔记,纯属个人理解,想到什么,记录什么, 可能写的东西不会很具体和全面。 机器学习有监督学习和无监督学习,我认为两者的概念如下。 监督学习:有一大堆训练的数据,如果你要预测某个结果,你可以通过对比分析训练数据,从而找到你需要预测的结果。现阶段我所知道的内容是监督学习有回归算法和分类算法。 无监督学习:没有训练数据,结果好像也不需要预测,完全有机器...原创 2019-08-05 09:52:35 · 143 阅读 · 0 评论 -
机器学习-第十三篇-获取数据
获取数据,有以下方式如果模型是低方差,即高偏差的情况,可以通过扩大训练集的方式来优化模型。OCR工作流:文字侦测-字符切分-字符识别上限分析:由OCR例子中,分析每一步的输出结果正确率,以把时间用在正确的正确率提升上。...原创 2019-08-12 11:43:00 · 149 阅读 · 0 评论 -
机器学习第十二篇-大数据计算
随机梯度下降算法:当训练集m很大的时候,批量梯度下降算法的对代价函数的微分求解迭代计算量会很大。步骤:mini-batch 梯度下降算法:随机梯度下降算法的下降收敛:如果代价函数图像的噪声过大,那么可以增加求均值的样本数量,曲线不断上升,则减小学习速率的值。学习速率可以保持一个常数,也可以用含有迭代次数的表达式。在线学习:根据用户喜好,不...原创 2019-08-12 10:31:42 · 150 阅读 · 0 评论 -
机器学习-第十一篇-协同过滤
协同过滤算法:听不懂,千言万语,就是用梯度下降最小化代价函数低矩阵分解:均值归一化:原创 2019-08-09 17:10:05 · 230 阅读 · 0 评论 -
机器学习-第六篇-神经网络
and or not xnor代价函数:看课程已经看到懵逼了,笔记不知道怎么记了。。。。。。。。原创 2019-08-07 15:00:33 · 122 阅读 · 0 评论 -
机器学习-第十一篇-高斯分布与异常检测
高斯分布:异常检测:异常检测与监督学习:如何选择异常检测算法的特征:听不懂。。。。。多元高斯正态分布引入协方差矩阵...原创 2019-08-09 15:16:44 · 392 阅读 · 0 评论 -
机器学习-第五篇-逻辑回归与正则化
逻辑回归方程:代价函数:如果出现过拟合的情况,可以使用正则化解决。正则化对thera求解从1开始。正规方程正则化:线性方程正则化:逻辑回归正则化:...原创 2019-08-07 10:03:19 · 256 阅读 · 0 评论 -
机器学习-第十篇-降维
数据压缩:看不是很明白,反正就是从高维度降到低维度。主成分分析算法(PAC):看懵逼了,不太知道PCA讲什么截个图用于祭奠PCA可以用于提高学习算法的速度,不适用于解决过拟合问题。...原创 2019-08-08 18:11:25 · 140 阅读 · 0 评论 -
机器学习-第九篇-聚类算法
循环两步1、随机生成聚类中心,进行族分类。2、移动聚类中心,移动聚类中心到均值位置。优化聚类算法的代价函数J(),可以通过上面循环的两步来缩小。随机选取聚类中心:通过不断循环上图的运算,当运行100次之后,找出代价函数最小的聚类中心。如何选择聚类数量:肘部法则:...原创 2019-08-08 14:54:42 · 216 阅读 · 0 评论 -
机器学习-第四篇-正规方程
正规方程与梯度下降算法比较用正规方程求解参数的方法:例子如下:结果为(n+1)*1的矩阵,我想这应该就是各个参数的值。(n为特征数)原创 2019-08-06 09:38:46 · 240 阅读 · 0 评论 -
机器学习-第八篇
支持SVM向量机的优化函数:代价函数的图像:左边为y=1的代价函数,如果要代价函数最小,则需要大于1右边为y=0的代价函数,如果要代价函数最小,则需要小于-1.向量机参数影响偏差与方差问题:...原创 2019-08-08 11:07:42 · 111 阅读 · 0 评论 -
机器学习-第七篇
交叉验证集函数与偏差和方差的图像关系:左边高偏差即欠拟合,右边高方差即过拟合。正则化和偏差、方差之间的图像关系。增大入,可以解决高方差问题,减小入,可以解决高偏差问题。解决高方差和高偏差的方案思路:...原创 2019-08-08 09:10:49 · 110 阅读 · 0 评论 -
机器学习-第三篇
让梯度下降的速度变得更快可以用特征缩放方法、特征归一化。特征缩放:u为该特征的平均值,s为该特征的范围。看得有点懵,好像如果是多项性线性回归模型,那么对特征进行缩放之后,再运行梯度下降算法会更快。...原创 2019-08-05 17:50:38 · 95 阅读 · 0 评论 -
机器学习-第二篇
训练样本记为m,特征为x,对应目标值为y,(x,y)表示一组训练样本,h为从x到y的函数映射。单变量线性回归:h(x)=θ0++θ₁x代价函数是实际y值与期望y值的方差的二分之一,其函数表达式为:代价函数也称为平方误差代价函数,简记为:我觉得代价函数是一个随θ₁变化的函数,当J(θ₁)取值为最小时,此时的θ₁为最小化值,即此时的θ₁能够使线性回归函数h(x)拟...原创 2019-08-05 14:56:25 · 236 阅读 · 0 评论 -
机器学习2-第一篇
吴恩达老师的课程已经看完了,但是由于只是通过快速观看课程,以了解一个大概,所以没有做练习,现在准备继续看周志华老师的机器学习书籍,争取边看边做笔记,再把课后习题完成。 归纳:从特殊到一般的泛化过程。 演绎:从一般到特殊的特化过程。假设空间与版本空间的概念:搬来两位位博主的博客https://blog.youkuaiyun.com/qq_20936739/a...原创 2019-08-13 14:31:31 · 160 阅读 · 0 评论