《百面机器学习》
文章平均质量分 88
学习笔记,仅供记录复盘学习。
做自己的偶像
被误解是表达者的宿命
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【机器学习13】生成对抗网络
从推断的角度看, 联合概率q(x,z)=q(x)q(z|x), 其中q(x)为真实数据集上的经验数据分布, 可认为已知, 条件概率q(z|x)则要通过推断网络来表达;从生成的角度看, p(x,z)=p(z)p(x|z), 其中p(z)是事先给定的, 如z~N(0,I), 条件概率p(x|z)则通过生成网络来表达。当二者趋于一致时, 可以确定对应的边缘概率都相等, q(x)=p(x), q(z)=p(z), 对应的条件概率也都相等q(z|x)=p(z|x), q(x|z)=p(x|z)。原创 2023-11-19 21:13:22 · 753 阅读 · 0 评论 -
【机器学习12】集成学习
从所有的树结构中寻找最优的树结构是一个NP-hard问题, 因此在实际中往往采用贪心法来构建出一个次优的树结构, 基本思想是从根节点开始, 每次对一个叶子节点进行分裂, 针对每一种可能的分裂, 根据特定的准则选取最优的分裂。不同的决策树算法采用不同的准则, 如IC3算法采用信息增益, C4.5算法为了克服信息增益中容易偏向取值较多的特征而采用信息增益比, CART算法使用基尼指数和平方误差, XGBoost也有特定的准则来选取最优分裂。每一层在训练的时候, 对前一层基分类器分错的样本, 给予更高的权重。原创 2023-11-19 14:03:28 · 869 阅读 · 0 评论 -
【机器学习11】强化学习
包括深度Q-learning在内的大多数强化学习算法, 都没有收敛性的保证, 而策略梯度(Policy Gradient) 则没有这些问题, 它可以无差别地处理连续和离散状态空间,同时保证至少收敛到一个局部最优解。) : 在每个时间点t, 机器人会发出一个动作at, 收到环境给出的收益rt, 同时环境进入到一个新的状态st。设τ为某一次0到T时间所有状态及行动的集合(称作一条轨迹) , 则R(θ)=E(r(τ)), 其中函数r计算了轨迹τ的得分。奖励: 机器人可能收到的奖励, 一般是一个实数, 记作r。原创 2023-11-17 20:15:33 · 779 阅读 · 0 评论 -
【机器学习10】循环神经网络
与传统的循环神经网络不同的是, 从上一个记忆单元的状态ct−1到当前的状态ct的转移不一定完全取决于激活函数计算得到的状态, 还由输入门和遗忘门来共同控制。由于预测的误差是沿着神经网络的每一层反向传播的, 因此当雅克比矩阵的最大特征值大于1时, 随着离输出越来越远, 每层的梯度大小会呈指数增长, 导致梯度爆炸;该方法会保存b当前的较佳选择, 然后解码时每一步根据保存的选择进行下一步扩展和排序, 接着选择前b个进行保存, 循环迭代, 直到结束时选择最佳的一个作为解码的结果。原创 2023-11-17 14:46:38 · 504 阅读 · 0 评论 -
【机器学习9】前馈神经网络
深度前馈网络是一类网络模型的统称,主要包括多层感知机、 自编码器、限制玻尔兹曼机, 以及卷积神经网络等。原创 2023-11-16 17:03:58 · 1273 阅读 · 0 评论 -
【机器学习8】采样
均匀分布是指整个样本空间中的每一个样本点对应的概率(密度) 都是相等的。对一个没有观测变量的贝叶斯网络进行采样, 最简单的方法是祖先采样(Ancestral Sampling) , 它的核心思想是根据有向图的顺序, 先对祖先节点进行采样, 只有当某个节点的所有父节点都已完成采样, 才对该节点进行采样。几种常见的MCMC采样法:Metropolis-Hastings采样法和吉布斯采样法,实际应用中一般会对得到的样本序列进行“burn-in”处理,即截除掉序列中最开始的一部分样本, 只保留后面的样本。原创 2023-11-16 11:02:57 · 810 阅读 · 2 评论 -
【机器学习7】优化算法
黄色的部分是L2和L1正则项约束后的解空间, 绿色的等高线是凸优化问题中目标函数的等高线,L2正则项约束后的解空间是圆形, 而L1正则项约束的解空间是多边形。从贝叶斯的角度来理解L1正则化和L2正则化, 简单的解释是, L1正则化相当于对模型参数w引入了拉普拉斯先验, L2正则化相当于引入了高斯先验, 而拉普拉斯先验使参数为0的可能性更大。此时, 最小值点在红点处, 对应的w是0, 产生了稀疏性。对二分类问题, Y={1,−1}, 我们希望sign f(xi,θ)=yi, 最自然的损失函数是0-1损失,原创 2023-11-15 14:26:33 · 482 阅读 · 0 评论 -
【机器学习6】概率图模型
用观测结点表示观测到的数据, 用隐含结点表示潜在的知识, 用边来描述知识与数据的相互关系, 最后基于这样的关系图获得一个概率分布。概率图中的节点分为隐含节点和观测节点, 边分为有向边和无向边。从概率论的角度, 节点对应于随机变量, 边对应于随机变量的依赖或相关关系, 其中有向边表示单向的依赖, 无向边表示相互依赖关系。概率图模型分为贝叶斯网络(Bayesian Network) 和马尔可夫网络(MarkovNetwork) 两大类。原创 2023-11-15 13:17:46 · 520 阅读 · 0 评论 -
【机器学习5】无监督学习聚类
相比于监督学习, 非监督学习的输入数据没有标签信息, 需要通过算法模型来挖掘数据内在的结构和模式。非监督学习主要包含两大类学习方法: 数据聚类和特征变量关联。原创 2023-11-14 17:07:08 · 1491 阅读 · 0 评论 -
【机器学习4】降维
常见的降维方法有主成分分析、 线性判别分析、 等距映射、 局部线性嵌入、 拉普拉斯特征映射、 局部保留投影等。原创 2023-11-08 19:08:53 · 648 阅读 · 1 评论 -
【机器学习3】有监督学习经典分类算法
逻辑回归处理的是分类问题, 线性回归处理的是回归问题, 这是两者的最本质的区别。逻辑回归与线性回归最大的区别, 即逻辑回归中的因变量为离散的,而线性回归中的因变量是连续的。预剪枝的核心思想是在树中结点进行扩展之前, 先计算当前的划分是否能带来模型泛化能力的提升, 如果不能, 则不再继续生长子树。逻辑回归和线性回归的相同之处二者都使用了极大似然估计来对训练样本进行建模,另外, 二者在求解超参数的过程中, 都可以使用梯度下降的方法。后剪枝, 是在已生成的过拟合决策树上进行剪枝, 得到简化版的剪枝决策树。原创 2023-11-07 20:26:28 · 1028 阅读 · 0 评论 -
【机器学习2】模型评估
模型评估主要分为离线评估和在线评估两个阶段。针对分类、 排序、 回归、序列预测等不同类型的机器学习问题, 评估指标的选择也有所不同。原创 2023-11-07 15:54:35 · 717 阅读 · 0 评论 -
【机器学习1】特征工程
特征工程是一个表示和展现数据的过程。原创 2023-11-07 10:44:58 · 450 阅读 · 0 评论
分享