
机器学习
文章平均质量分 93
IMPORT_UTIL
这个作者很懒,什么都没留下…
展开
-
图神经网络
图是由组成的一种数据结构,它通常表示为,其中表示为一个图,是图中顶点的集合,是图中边的集合。如下图所示图结构研究的是数据元素之间的。在这种结构中,任意两个元素之间都可能存在关系,即顶点之间的关系可以是任意的,图中任意元素之间都可能相关。在图结构中,。任意两个顶点之间都可能有关系,顶点之间的逻辑关系用边来表示。边可以是有向的也可以是无向的,。并且在图结构中的每个顶点都有自己的特征信息。顶点间的关系可以反映出图结构的特征信息。在实际应用中,可以根据图顶点特征或图结构特征进行分类。原创 2022-11-24 00:07:28 · 2625 阅读 · 0 评论 -
生成式对抗神经网络GAN
如下图所示,生成器要做的事情就是输入一个低维的简单分布,输出一个高位的复杂分布PGP_GPG,同时要做到生成的复杂分布要尽量与数据datadatadata的分布PdataP_{data}Pdata越接近越好(即理想情况下,就是让PGP_GPG和PdataP_{data}Pdata一模一样)。比如,我们现在输入是一个标准正态分布(其样本主要分布在中间),通过生成器GGG之后,输出PGP_GPG。原创 2022-11-18 23:18:20 · 1016 阅读 · 0 评论 -
Diffusion Model扩散模型原理
本文并非原创,只是个人的学习的笔记,作者只对一些步骤进行了简单的推导。具体内容请参考:https://lilianweng.github.io/posts/2021-07-11-diffusion-models/https://www.bilibili.com/video/BV1b541197HX?share_source=copy_web若希望从高斯分布N(μ,σ2)N(μ,σ^2)N(μ,σ2)中采样,可以先从标准分布N(0,1)N(0,1)N(0,1)采样出zzz,再得到σ∗z+μσ*z+μσ∗z+μ原创 2022-06-09 14:49:23 · 2562 阅读 · 1 评论 -
朴素贝叶斯
朴素贝叶斯(naive Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。贝叶斯定理贝叶斯定理就是假设有两个事件:事件A和事件B,求已知事件B发生的概率下事件A发生的概率,记为P(A∣B)P(A|B)P(A∣B)。为了了解上式,我们先用文氏图来直观的反应下两者的关系:如图所示,在事件B发生的概率下事件A的发生概率为P(AB)P(B)\frac{P(AB)}{P(B)}P(B)P(AB),如果反过来,在事件A发生的概率下事件B发生的概率是多少呢?你肯定很快的就能想到是P(AB)P(A)\f原创 2021-11-28 18:12:10 · 937 阅读 · 0 评论 -
决策树(二)——决策树的生成
说明:这篇博客是看李航老师的《统计学习方法》的笔记总结,博客中有很多内容是摘选自李航老师的《统计学习方法》一书,仅供学习交流使用。决策树的生成在上一篇博客决策树(一)——构建决策树中,我们已经讲述了决策树三步骤中的特征选择,今天我们首先来讲解一下决策树的生成。决策树生成的基本思想是分割数据集。具体的做法就是尝试每一个特征,并衡量哪一个特征会给你带来最好的结果,然后,基于最优的特征分割数据集(由于最优特征可能有好几个值,所以我们也可能会得到多个子集)。第一次划分之后,数据集被向下传递到树的分支的下一个结原创 2021-11-23 06:00:00 · 536 阅读 · 0 评论 -
决策树(一)——构建决策树
决策树说明:这篇博客是看李航老师的《统计学习方法》做的笔记总结,博客中有很多内容是摘选自李航老师的《统计学习方法》一书,仅供学习交流使用。决策树(decision tree)是一种基本的分类与回归方法。主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。简单来说,决策树就是一棵树,一颗决策树包含一个根节点、若干个内部结点和若干个叶原创 2021-11-15 06:00:00 · 5508 阅读 · 0 评论 -
BP神经网络公式推导(含代码实现)
什么是BP神经网络BP(Back Propagation)神经网络是一种按误差反向传播(简称误差反传)训练的多层前馈网络,它的基本思想是梯度下降法,利用梯度搜索技术,以期使网络的实际输出值和期望输出值的误差最小。BP神经网络包括信号的前向传播和误差的反向传播两个过程。即计算误差输出时按从输入到输出的方向进行,而调整权值和阈值则从输出到输入的方向进行。网络结构:BP神经网络整个网络结构包含了:一层输入层,一到多层隐含层,一层的输出层。隐含层的选取在BP神经网络中,输入层和输出层的节点个数都是确定的原创 2021-11-09 06:00:00 · 3681 阅读 · 0 评论 -
单层感知器
单层感知器生物神经元神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’。神经细胞的状态取决于从其它的神经细胞收到的输入信号量,及突触的强度(抑制或加强)。当信号量总和超过了某个阈值时,细胞体就会激动,产生电脉冲。电脉冲沿着轴突并通过突触传递到其它神经元。为了模拟神经细胞行为,与之对应的感知机基础概念被提出,如权量(突触)、偏置(阈值)及激活函数(细胞体)。感知器受到生物神经网络的启发,计算机学家Frank Rosenb原创 2021-11-06 06:00:00 · 668 阅读 · 0 评论 -
详解标准方程法(内含公式推导和代码)
标准方程法标准方程法就是通过一些方法直接求出权值ω的值,以往的文章已将讲过了代价函数的相关内容,这里直接给出代价函数的公式:J(ω0,ω1,ω2,…,ωn)=12m∑i=1m[yi−hω(xi)]2J(ω_0,ω_1,ω_2,\dots,ω_n)=\frac{1}{2m}\sum_{i=1}^m[y_i-h_ω(x_i)]^2J(ω0,ω1,ω2,…,ωn)=2m1i=1∑m[yi−hω(xi)]2其中h_ω(x)的公式如下:hω(x)=ω0+ω1x1+ω2x2+⋯+ωnxn原创 2021-10-28 17:01:57 · 1129 阅读 · 0 评论 -
一元线性回归模型的原理及实现
一元线性回归由于笔者的数学不太好,而且网上关于一元线性回归的文章有很多,所以相关内容大家可以查找一下,这里我就简单的搬运一下简单概念。一元线性回归的方程:h(x)=β0+β1xh(x)=β_0+β_1xh(x)=β0+β1x其中第一个参数β0β_0β0为截距,第二个参数β1β_1β1为斜率。代价函数 回归分析的主要目的是通过已有的信息,去推测出未知的信息。通过一个例子大家可能会更深刻的理解回归分析的目的。上图为广告费与销售额的关系图,虚线为我们的一元线性回归方程,通过回归分析原创 2021-10-26 22:11:49 · 5439 阅读 · 0 评论 -
KNN算法的原理及实现
KNN算法的原理原理:K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是该实例的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。(这类似于现实生活中少数服从多数的思想)如下图所示,当k=3时,黑点最邻近的3个实例中有2个是红点,而红点属于labelA,故此时黑点应当属于labelA。注:k近邻的k值选取是关键,因为k值过小,将意味着我们的整体模型会变得复杂,容易发生过拟合;k值过大就会使得邻域过大,过大的邻域内包含着与输入实例原创 2021-10-24 21:03:05 · 730 阅读 · 0 评论