- 博客(14)
- 资源 (1)
- 收藏
- 关注
原创 【论文阅读】LIME概要及代码案例
LIME (Local Interpretable Model-agnostic Explanations):一种新颖的解释技术,通过在预测周围局部学习一个可解释模型,以一种可解释的和可信赖的方法来解释任何分类器的预测。
2023-01-26 10:28:09
2177
2
原创 图神经网络
图是由组成的一种数据结构,它通常表示为,其中表示为一个图,是图中顶点的集合,是图中边的集合。如下图所示图结构研究的是数据元素之间的。在这种结构中,任意两个元素之间都可能存在关系,即顶点之间的关系可以是任意的,图中任意元素之间都可能相关。在图结构中,。任意两个顶点之间都可能有关系,顶点之间的逻辑关系用边来表示。边可以是有向的也可以是无向的,。并且在图结构中的每个顶点都有自己的特征信息。顶点间的关系可以反映出图结构的特征信息。在实际应用中,可以根据图顶点特征或图结构特征进行分类。
2022-11-24 00:07:28
2605
原创 生成式对抗神经网络GAN
如下图所示,生成器要做的事情就是输入一个低维的简单分布,输出一个高位的复杂分布PGP_GPG,同时要做到生成的复杂分布要尽量与数据datadatadata的分布PdataP_{data}Pdata越接近越好(即理想情况下,就是让PGP_GPG和PdataP_{data}Pdata一模一样)。比如,我们现在输入是一个标准正态分布(其样本主要分布在中间),通过生成器GGG之后,输出PGP_GPG。
2022-11-18 23:18:20
979
原创 解决Jupyter notebook根目录更换和Conda报InvalidArchiveError问题
由于更换电脑,在使用anaconda时遇到了jupyter notebook更换根目录和使用conda安装PyTorch报错InvalidArchiveError问题,这里将自己的解决方法分享出来,希望有所帮助。然后命令行下会出现一串地址,根据地址找到jupyter_notebook_config.py,打开之后找到下图红框所示的c.NotebookApp.notebook_dir,按照下面的方式写入自己想要存放的位置即可,最后还需要将其前面的**#号**...
2022-07-11 21:31:28
623
原创 Diffusion Model扩散模型原理
本文并非原创,只是个人的学习的笔记,作者只对一些步骤进行了简单的推导。具体内容请参考:https://lilianweng.github.io/posts/2021-07-11-diffusion-models/https://www.bilibili.com/video/BV1b541197HX?share_source=copy_web若希望从高斯分布N(μ,σ2)N(μ,σ^2)N(μ,σ2)中采样,可以先从标准分布N(0,1)N(0,1)N(0,1)采样出zzz,再得到σ∗z+μσ*z+μσ∗z+μ
2022-06-09 14:49:23
2537
1
原创 jsp实现简单的购物车系统
前言这个项目只使用到了javaweb基础知识和jsp的一小部分的内容,很适合新手上手操作。不过由于本人也是一个小白,项目代码比较冗余,并且数据库方面存在一些考虑不到的地方。大家可以拿来参考,如有不当,请多多指正。代码链接:https://download.youkuaiyun.com/download/IMPORT_JAVA_UTIL/69836215页面展示注册页面登陆页面商品展示页面更新页面添加页面购物车页面...
2021-12-24 09:56:50
1283
原创 朴素贝叶斯
朴素贝叶斯(naive Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。贝叶斯定理贝叶斯定理就是假设有两个事件:事件A和事件B,求已知事件B发生的概率下事件A发生的概率,记为P(A∣B)P(A|B)P(A∣B)。为了了解上式,我们先用文氏图来直观的反应下两者的关系:如图所示,在事件B发生的概率下事件A的发生概率为P(AB)P(B)\frac{P(AB)}{P(B)}P(B)P(AB),如果反过来,在事件A发生的概率下事件B发生的概率是多少呢?你肯定很快的就能想到是P(AB)P(A)\f
2021-11-28 18:12:10
930
原创 决策树(二)——决策树的生成
说明:这篇博客是看李航老师的《统计学习方法》的笔记总结,博客中有很多内容是摘选自李航老师的《统计学习方法》一书,仅供学习交流使用。决策树的生成在上一篇博客决策树(一)——构建决策树中,我们已经讲述了决策树三步骤中的特征选择,今天我们首先来讲解一下决策树的生成。决策树生成的基本思想是分割数据集。具体的做法就是尝试每一个特征,并衡量哪一个特征会给你带来最好的结果,然后,基于最优的特征分割数据集(由于最优特征可能有好几个值,所以我们也可能会得到多个子集)。第一次划分之后,数据集被向下传递到树的分支的下一个结
2021-11-23 06:00:00
525
原创 决策树(一)——构建决策树
决策树说明:这篇博客是看李航老师的《统计学习方法》做的笔记总结,博客中有很多内容是摘选自李航老师的《统计学习方法》一书,仅供学习交流使用。决策树(decision tree)是一种基本的分类与回归方法。主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。简单来说,决策树就是一棵树,一颗决策树包含一个根节点、若干个内部结点和若干个叶
2021-11-15 06:00:00
5479
原创 BP神经网络公式推导(含代码实现)
什么是BP神经网络BP(Back Propagation)神经网络是一种按误差反向传播(简称误差反传)训练的多层前馈网络,它的基本思想是梯度下降法,利用梯度搜索技术,以期使网络的实际输出值和期望输出值的误差最小。BP神经网络包括信号的前向传播和误差的反向传播两个过程。即计算误差输出时按从输入到输出的方向进行,而调整权值和阈值则从输出到输入的方向进行。网络结构:BP神经网络整个网络结构包含了:一层输入层,一到多层隐含层,一层的输出层。隐含层的选取在BP神经网络中,输入层和输出层的节点个数都是确定的
2021-11-09 06:00:00
3627
原创 单层感知器
单层感知器生物神经元神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’。神经细胞的状态取决于从其它的神经细胞收到的输入信号量,及突触的强度(抑制或加强)。当信号量总和超过了某个阈值时,细胞体就会激动,产生电脉冲。电脉冲沿着轴突并通过突触传递到其它神经元。为了模拟神经细胞行为,与之对应的感知机基础概念被提出,如权量(突触)、偏置(阈值)及激活函数(细胞体)。感知器受到生物神经网络的启发,计算机学家Frank Rosenb
2021-11-06 06:00:00
656
原创 详解标准方程法(内含公式推导和代码)
标准方程法标准方程法就是通过一些方法直接求出权值ω的值,以往的文章已将讲过了代价函数的相关内容,这里直接给出代价函数的公式:J(ω0,ω1,ω2,…,ωn)=12m∑i=1m[yi−hω(xi)]2J(ω_0,ω_1,ω_2,\dots,ω_n)=\frac{1}{2m}\sum_{i=1}^m[y_i-h_ω(x_i)]^2J(ω0,ω1,ω2,…,ωn)=2m1i=1∑m[yi−hω(xi)]2其中h_ω(x)的公式如下:hω(x)=ω0+ω1x1+ω2x2+⋯+ωnxn
2021-10-28 17:01:57
1114
原创 一元线性回归模型的原理及实现
一元线性回归由于笔者的数学不太好,而且网上关于一元线性回归的文章有很多,所以相关内容大家可以查找一下,这里我就简单的搬运一下简单概念。一元线性回归的方程:h(x)=β0+β1xh(x)=β_0+β_1xh(x)=β0+β1x其中第一个参数β0β_0β0为截距,第二个参数β1β_1β1为斜率。代价函数 回归分析的主要目的是通过已有的信息,去推测出未知的信息。通过一个例子大家可能会更深刻的理解回归分析的目的。上图为广告费与销售额的关系图,虚线为我们的一元线性回归方程,通过回归分析
2021-10-26 22:11:49
5394
原创 KNN算法的原理及实现
KNN算法的原理原理:K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是该实例的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。(这类似于现实生活中少数服从多数的思想)如下图所示,当k=3时,黑点最邻近的3个实例中有2个是红点,而红点属于labelA,故此时黑点应当属于labelA。注:k近邻的k值选取是关键,因为k值过小,将意味着我们的整体模型会变得复杂,容易发生过拟合;k值过大就会使得邻域过大,过大的邻域内包含着与输入实例
2021-10-24 21:03:05
716
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人