
机器学习
文章平均质量分 68
有心の敢敢
实践出真知
展开
-
Datawhale开源组队学习 & 《机器学习》第六章 支持向量机
文章目录前言一、旧壶装新酒二、作业 6. 1的证明三、 结尾说明 前言 兜兜转转,终于来到了第六章,毫无疑问,这一章是《机器学习》这本书目前为止的“最具挑战性”的一个章节—— 一、旧壶装新酒 这次把凸优化问题的解法又给温习了一遍。那么回顾一下,凸优化问题的解法依次出现在了哪些地方呢? a. SVM(硬间隔)优化模型问题: 最后我们需要求解的是一个离正负样本均“尽可能远”的超平面,并且满足其余所有样本点的几何距离均尽可能大。也就是说我们可以把这个问题归结为寻找一超平面,是的距离其几何间隔最小的样本(xm原创 2022-03-31 23:50:46 · 855 阅读 · 0 评论 -
Datawhale开源组队学习 & 《机器学习》第五章 神经网络【思维导图版】
第五章 神经网络 【思维导图】 定义 由具有适应性的“简单单元”组成的广泛并行互联的网络,它的组织能够模拟生物神经系统对真实世界物体所做的交互反应。 M-P神经元 (由McCulloch and Pitts 提出) INPUT: n个其他神经元 X 带权重的连接 OUTPUT:Function of (总输入值 - 神经元阈值)——经处理函数处理后的结果 感知机 感知机模型是一种单个的M-P模型,激活函数是sgn(阶跃函数)的神经元。 数学角度 感知机(sgn作为激活函数),对数几率回归(sigmon原创 2022-03-28 00:05:39 · 1460 阅读 · 0 评论 -
datawhale组队学习 & 《机器学习》第四章 决策树【思维导图版笔记】】
决策树 思维导图png格式 思维导图大纲格式 基础知识 参数 D a 信息熵 可以用于度量样本集合的纯度,纯度越高,信息熵越小。 衡量信息的不确定度,不确定度越高,信息熵越大。 条件熵 对于一个决策树,可能含有不同分支节点,不同分支节点所包含的样本数不同, 条件熵就是被赋予不同权重的信息熵的综合。 信息增益Gain(D, a) Gain(D, a) = 信息熵 - 条件熵 信息增益越大, 表示经过该属性划分后的纯度越高,越有利于分类 增益率Gain_ratio(D, a) Gain原创 2022-03-25 00:00:22 · 650 阅读 · 0 评论 -
Datawhale开源学习 &《机器学习》 第三章 线性模型
《机器学习》第三章 线性模型部分学习笔记,未完待续~原创 2022-03-21 23:19:36 · 1174 阅读 · 0 评论 -
【吃瓜教程 CH1&CH2 绪论&模型评估与选择】
吃瓜教程&Datawhale开源学习 第一、二章学习笔记原创 2022-03-15 23:31:47 · 613 阅读 · 0 评论