
机器学习
aec153
小程序: 改王者名
展开
-
吴恩达机器学习【第六天】神经网络模型
前言这一章的内容不多,但还是拖拖拉拉,总是不想看,好懒非线性假设神经网络模型大多数都不是线性是,是跟逻辑回归差不多一样是非线性的。但是和逻辑回归又有区别,神经网络模型的参数比逻辑回归还要多。神经元和大脑这一段太有趣了,根据研究表明,大脑使用同一算法针对不同的感受器,然后就呈现出不同的局面,比如你相信吗?舌头居然可以看到世界。耳朵通过声音也可以在盲人脑里形成一片世界。模型表示从下面那张图,可以看出三层,第二层用第一层的所有变量,来进行表达【还要再加上权重】,最后一层用第二层的所有变量.原创 2021-08-21 21:58:19 · 857 阅读 · 2 评论 -
吴恩达机器学习【第五天】逻辑回归模型
想不到又过了几天前几天在忙一个项目,需要用前端实现一个页面,遇到跨域的问题,一直弄不出来逻辑回归分类假设陈述(Hypothesis Representation)决策边界代价函数简化代价函数和梯度下降更好的优化解决多类别分别问题分类日常生活中,为了更好的辨别一种东西,会对他归类,那计算机怎么来计算归类呢?比如上图,通过构建一个函数来进行归类,在这个函数的右边为1,左边为0.假设陈述(Hypothesis Representation)因为目前是针对 0 1类的这种分类,所以需要构建一个函.原创 2021-08-17 22:59:16 · 870 阅读 · 2 评论 -
Octave安装教程
https://zhuanlan.zhihu.com/p/28484838原创 2021-08-14 21:08:24 · 1090 阅读 · 0 评论 -
吴恩达机器学习【第四天】多元线性规划模型
文章目录多元线性模型找到满足假设的参数梯度下降法单纯的公式推导特征放缩学习率的判断和选择正规方程两种方法的比较多元线性模型这一节的内容可以看作是之前一元线性模型的提高,其中要明白符号的意思 xj(i)表示第i个样本中的j指标\ x_j^{(i)} 表示第 i 个样本中的j指标 xj(i)表示第i个样本中的j指标找到满足假设的参数梯度下降法单纯的公式推导特征放缩如果对于数据 x1和x2\ x_1和x_2 x1和x2,来说,如果数量级别相差原创 2021-08-14 18:46:47 · 2432 阅读 · 1 评论 -
吴恩达机器学习【第三天】线性代数基础知识
前言:昨天又偷懒了,学到一半就跑了之前觉得机器学习对线性代数的要求很高,但是在这个课程中,老师给出的线性代数基础知识,却很少,更多是强调应用。文章目录矩阵是什么矩阵的加法和减法【与常数相乘】矩阵与矩阵相乘矩阵与矩阵相乘的特点矩阵的逆矩阵和转置矩阵是什么首先,说一下矩阵,比如下面这个矩阵 ,你明白他的第 i 行和第 j 列存放是什么数据就好了,以及左右两边是个中括号。目前我看来矩阵是一个工具,按照一定规则来存放数据的工具。矩阵的加法和减法【与常数相乘】矩阵要有相同的格式才能够相加减,比如下.原创 2021-08-14 10:57:51 · 135 阅读 · 0 评论 -
吴恩达机器学习【第二天】线性规划模型和梯度下降算法
前言:昨天因为想弄一个小程序,就耽搁了。补上回顾:https://blog.youkuaiyun.com/aec153/article/details/119618892?spm=1001.2014.3001.5501上节课讲了,关于监督学习和非监督学习,其中监督学习主要有回归和分类,非监督学习主要有聚类。这次课程先从线性规划模型出发,其中的叉叉点,是检测出来的数据,需要拟合出一条直线,以用来预测。【如何检测该模型是否为最佳呢?】就引出损失函数:按照损失函数求出的值要越小越好。就是图中的最低点。原创 2021-08-13 19:29:32 · 412 阅读 · 0 评论 -
吴恩达机器学习【第一天】
https://www.coursera.org/learn/machine-learning/home/welcome今天学了监督学习和无监督学习。监督学习分为 回归和分类 问题,回归是处理连续问题,分类是处理离散问腿,这个我在数学建模的时候已经学习过了,那时候碰上的是蝴蝶的生长与蝴蝶的翅膀面积之间的关系就是回归问题,而分类问题是如何通过各个省份的GDP数据、经济、幸福水平来划分各个省份的分类排名(实力大省),其中带有几个是正确,有一些是错位的,进行多次的回归。无监督学习即不给训练数据标准答案,让计原创 2021-08-11 22:34:34 · 226 阅读 · 0 评论