机器学习
つき
唯恐暴露才华不足的卑怯的畏惧,和厌恶专研刻苦的惰怠,就是我的全部了。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【吴恩达机器学习】章节1 初识机器学习
课程视频:网易云课堂 课程详细笔记:github 已经有的笔记:https://blog.youkuaiyun.com/qq_34611579/article/details/80665546 <我的记录仅是整理自己的学习思路,整理复习之用> 目录: + 初识 + 什么是机器学习 + 监督学习 + 无监督学习 一·初识 机器学习 - 是从AI发展出来的一个领域 - 为...原创 2018-11-03 21:19:22 · 274 阅读 · 0 评论 -
【吴恩达机器学习】章节10 神经网络参数的反向传播算法
目录: + 代价函数 + 反向传播算法 + 使用注意(展开参数,梯度检测,随机初始化,组合到一起) + 无人驾驶 谈论一个学习算法在给定训练集时为神经网络拟合参数 一·代价函数 二·反向传播算法 为了计算导数项,采用反向传播算法(1个训练样本) 细节 项是代价函数关于这些所计算出的中间项的偏导数,它们衡量的是为了影响这...原创 2019-05-12 22:49:55 · 309 阅读 · 0 评论 -
【吴恩达机器学习】章节14 无监督学习
目录: + 无监督学习 + K-Means算法 + 优化目标 + 随机初始化 + 选取聚类数量 一·无监督学习 二· K-Means算法 三·优化目标 distortion cost function 四·随机初始化 五·选取聚类数量 手动选择 ...原创 2019-05-16 21:22:48 · 204 阅读 · 0 评论 -
【吴恩达机器学习】章节18 大规模机器学习
目录: + 学习大数据集 + 随机梯度下降 + Mini-Batch 梯度下降 + 随机梯度下降收敛 + 在线学习 + 减少映射与数据并行 一·学习大数据集 二·随机梯度下降 三·Mini-Batch 梯度下降 四·随机梯度下降收敛 五·在线学习 六·减少映射与数据并行 ...原创 2019-05-21 22:27:51 · 276 阅读 · 0 评论 -
【吴恩达机器学习】章节9 神经网络学习
目录: + 非线性假设 + 神经元与大脑 + 模型展示 + 例子与直觉理解 + 多元分类 一·非线性假设 当初始特征个数n很大时,将高阶多项式项数包括到特征里,会使特征空间急剧膨胀,当特征个数n很大时,增加特征来建立非线性分类器并不是一个好做法。 二·神经元与大脑 似乎可以把几乎任何一种传感器接入到大脑的几乎任何一个部位,大脑就会学会处理它 ...原创 2019-05-12 17:56:47 · 246 阅读 · 0 评论 -
【吴恩达机器学习】章节17 推荐系统
目录: + 问题规划 + 基于内容的推荐算法 + 协同过滤 + 协同过滤算法 + 矢量化:低秩矩阵分解 + 实施细节:均值规范化 一·问题规划 二·基于内容的推荐算法 三·协同过滤 四·协同过滤算法 五·矢量化:低秩矩阵分解 六·实施细节:均值规范化 ...原创 2019-05-21 16:40:35 · 237 阅读 · 0 评论 -
【吴恩达机器学习】章节8 正则化
目录: + 过拟合问题 + 代价函数 + 线性回归的正则化 + Logistic回归的正则化 一·过拟合问题 线性回归 logistic回归` 可视化并不方便 两种解决办法 二·代价函数 加入惩罚 缩小所有的参数,因为不知道哪个是高阶项 缩小参数更加平滑 选择合适的正则化参数 三·线性回归的正则化 梯度下降...原创 2019-05-11 22:12:47 · 169 阅读 · 0 评论 -
【吴恩达机器学习】章节16 异常检测
目录: + 问题动机 + 高斯分布 + 算法 + 开发和评估异常检测系统 + 异常检测 VS 监督学习 + 选择要使用的功能 + 多变量高斯分布 + 使用多变量高斯分布的异常检测 一·问题动机 二·高斯分布 三·算法 四·开发和评估异常检测系统 五·异常检测 VS 监督学习 ...原创 2019-05-21 10:57:16 · 190 阅读 · 0 评论 -
【吴恩达机器学习】章节13 支持向量机
目录: + 优化目标 + 直观上对大间隔的理解 + 大间隔分类器的数学原理 + 核函数 + 使用SVM 一·优化目标 SVM并不会输出概率,相对我们得到的是通过优化这个代价函数得到的一个参数,而支持向量机所做的,它进行了一个直接的预测,预测y是等于1还是0 二·直观上对大间隔的理解 三·大间隔分类器的数学原理 决策边界 ...原创 2019-05-15 21:58:44 · 185 阅读 · 0 评论 -
【吴恩达机器学习】章节7 Logistic回归
目录: + 分类 + 假设陈述 + 决策界限 + 代价函数 + 简化代价函数与梯度下降 + 高级优化 + 多元分类:一对多 一·分类 二分类和多分类 线性回归用于该数据集,设置阈值,并不是一个好的例子 logistic回归是一个分类算法 二·假设陈述 当有一个分类问题时,我们要使用哪个方程来表示我们的假设 三·决策界限 ...原创 2019-05-10 17:43:38 · 165 阅读 · 0 评论 -
【吴恩达机器学习】章节12 机器学习系统设计
目录: + 确定执行的优先级 + 误差分析 + 不对称性分类的误差评估 + 精确度和召回率的权衡 + 机器学习数据 一·确定执行的优先级 选择特征 二·误差分析 例子 三·不对称性分类的误差评估 偏斜类 即使我们有一个非常偏斜的类,算法也不能够欺骗我们,仅仅通过预测y总是等于0或1,没有办法得到高的查准率和高的召回率。 四·精确...原创 2019-05-15 21:58:36 · 136 阅读 · 0 评论 -
【吴恩达机器学习】章节15 降维
目录: + 目标:数据压缩 + 目标:可视化 + 主成分分析问题规划 + 主成分数量选择 + 压缩重现 + 应用PCA的建议 一·目标:数据压缩 二· 目标:可视化 三·主成分分析问题规划 PCA 试图找到一个低维的平面来对数据进行投影,以便最小化投影误差的平方,以及最小化每个点与投影后的对应点之间距离的平方值。 数据预...原创 2019-05-20 00:05:11 · 193 阅读 · 0 评论 -
【吴恩达机器学习】章节11 应用机器学习的建议
目录: + 决定下一步做什么 + 评估假设 + 模型选择和训练,验证,测试集 + 诊断偏差与方差 + 正则化和偏差与方差 + 学习曲线 + 决定接下来做什么 一·决定下一步做什么 二·评估假设 画图在多特征下不适用 三·模型选择和训练,验证,测试集 四·诊断偏差与方差 如果算法处于高偏差的情...原创 2019-05-14 17:20:37 · 170 阅读 · 0 评论 -
【吴恩达机器学习】章节5 多变量线性回归
目录: + 多功能 + 多元梯度下降法 + 特征和多项式回归 + 正规方程 + 编程小技巧 一·多功能 多特征下的描述 假设函数变化 多元线性回归 二·多元梯度下降法 把参数用向量来表示 多元线性回归模型 特征缩放 代价函数的等值线更圆,执行梯度下降会更快 特征除以最大值 均值归一化(为最大值减去最小值...原创 2019-05-06 13:31:08 · 177 阅读 · 0 评论 -
关于在ubuntu下pycharm安装matplotlib出现ValueError: max() arg is an empty sequence问题
环境: - ubuntu16.04 - ananconda环境管理工具 - pycharm 问题描述:今天在pycharm下使用anaconda配置python的虚拟环境,使用matplotlib出现此问题 解决方案:在虚拟环境下使用pip install matplotlib可解决此问题,该问题出现在使用anaconda图形界面或pycharm配置界面直接添加该库。 ...原创 2019-05-02 20:29:51 · 30363 阅读 · 10 评论 -
【吴恩达机器学习】章节3 线性代数回顾
目录: + 矩阵和向量 + 加法和标量乘法 + 矩阵向量乘法 + 矩阵乘法及特征 + 逆和转置 一·矩阵和向量 矩阵是指由数字组成的矩形阵列,并写在方括号内 矩阵的维度:矩阵的行数乘以列数 表达矩阵的某个特定元素: 向量是只有一列的矩阵。 4维向量是一个含有四个元素的向量。通过来表示它的第i个元素。有两种方式表示向量的下标。 二·加法和标量乘法...原创 2019-01-06 18:23:03 · 163 阅读 · 1 评论 -
【吴恩达机器学习】章节2 单变量线性回归
目录: + 模型描述 + 代价函数 + 梯度下降 + 线性回归的梯度下降 第一个学习的是监督学习中的线性回归算法 例子:房价预测 一·模型描述 - 在监督学习中,数据集被称为训练集 - 字母m 表示训练样本的数量 - 字母x 表示输入变量 - 字母y 表示输出变量 - (x,y) 表示一个训练样本 - (,) 表示第i个训练样本 监督学习算法:从最简...原创 2019-01-05 22:01:03 · 189 阅读 · 0 评论 -
【吴恩达机器学习】章节19 应用举例:照片OCR(照片光学字符识别)
目录: + 问题描述与OCR pipeline + 滑动窗口 + 获取大量数据和人工数据 + 天花板分析:下一步工作的pipeline 一·问题描述与OCR pipeline 二·滑动窗口 三·获取大量数据和人工数据 四·天花板分析:下一步工作的pipeline ...原创 2019-05-22 22:11:04 · 279 阅读 · 0 评论
分享