自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 csdn博客转到github

由于csdn在某些方面做得不是那么好,就决定趁着现在文章不多的时候迁移到其它地方稳妥一点,花了一个下午加晚上的时间总算基本搭好了,一些小问题之后再慢慢去改善。新博客地址为:SuperZLW’s Blog至于这里,应该也会继续下去,看心情吧。...

2021-08-04 14:28:23 340

原创 【ML-2020/21】Generative Adversarial Network (GAN) --- Part-1 基本介绍

目录写在前面的说明基本概念GenerationDiscriminatorGeneration vs. DiscriminatorAlgorithm补充写在前面的说明这个系列【ML-2020/21】大部分是课上内容的简单复述,之前上过但因为笔记写得很乱就忘了很多,所以重来一遍。与其看我这篇,不如直接去看视频,讲得还更生动。视频系列链接→\rightarrow→这里。基本概念Generative Adversarial Network (GAN) 中文名是【生成式对抗网络】,用这个网络的目的是为了让机器

2021-08-03 04:19:15 613

原创 深度学习中的正则化

目录引入正则化方法1. 数据增强2. L1/L2L1 / L2L1/L2正则2.1 L1L1L1正则2.2 L2L2L2正则2.3 L1L1L1与L2L2L2的总结比较3. Dropout4. DropConnect5. 早停法(Early stopping)参考网站来源引入与其它机器学习方法类似,DNN在训练过程中也会遇到过拟合的现象,尤其是当参数数量多于输入数据量时。为了防止过拟合现象,除了增加训练样本外,最常见的就是各种正则化方法,比如:数据增强、L1L1L1 正则化、L2L2L2 正则化、Dro

2021-07-31 05:48:06 560

原创 【ML-2020/21】CNN & Self-Attention

写在前面的说明这个系列【ML-2021】大部分是课上内容的简单复述,之前上过但因为笔记写得很乱就忘了很多,所以重来一遍。与其看我这篇,不如直接去看视频,讲得还更生动。视频系列链接→\rightarrow→这里。这里介绍两个常见的Network架构,分别为CNN 和 Self-Attention。CNNCNN主要是用来处理图像的,对于Fully Connected Network,每个神经元都要观察整张图片,这明显不是高效率的做法,所以更常见的是让每个神经元处理某一特定的pattern,,比如说就像下

2021-07-28 02:02:09 671

原创 非线性优化

目录引入非线性最小二乘问题一阶/ 二阶梯度法一阶(最速下降法,Steepest Method)二阶(牛顿法)方法分析(优缺点)Gauss-NewtonLevenberg_MarquadtG-N 和 L-M的对比引入一个经典的SLAM模型由一个运动方程和一个观测方程构成,如下式所示:xk=f(xk−1,uk)+wkzk,j=h(yj,xk)+vk,j\pmb{x}_k=f(\pmb{x}_{k-1},\pmb{u}_k)+\pmb{w}_k\\\pmb{z}_{k,j}=h(\pmb{y}_j,\pmb{

2021-07-24 08:29:26 274

原创 【学习随记】时间空间复杂度

时间复杂度常用的时间复杂度有7种:常数时间复杂度;O(1)O(1)O(1)对数时间复杂度;O(log⁡n)O(\log n)O(logn)线性时间复杂度;O(n)O(n)O(n)平方时间复杂度;O(n2)O(n^2)O(n2)立方时间复杂度;O(n3)O(n^3)O(n3)指数时间复杂度;O(2n)O(2^n)O(2n)阶乘时间复杂度;O(n!)O(n!)O(n!)注:从上到下时间复杂度越来越大常规的时间复杂度都容易分析,麻烦的是递归,遇到递归时一般需要把状态树画出来。比如说代码

2021-07-22 04:49:39 125

原创 支持向量机(SVM)

目录引入线性SVM硬间隔最大化软间隔最大化非线性SVM多项式核(Polynomial Kernel)径向基函数(Radial Basis Functions)Mercer's Condition相关补充引入对于上一篇提到的风险(Risk):R(w)≤Remp(w)+ϵ(N,p∗,h)R(w)\leq R_{emp}(w)+\epsilon(N,p^*,h)R(w)≤Remp​(w)+ϵ(N,p∗,h)其中NNN是训练数据量,p∗p^*p∗是到达边界的概率,hhh是VC维度。为了最小化风险,经典的机器学

2021-07-21 22:26:09 1218

原创 各种空间的简单介绍

目录相关概念:完备性内积空间度量(距离)空间线性空间赋范空间Banach 空间内积空间Hilbert 空间因为经常遇到各种特定的空间,有些没接触过,有些又容易弄混,这里做个记录,这篇应该会不断更新,毕竟空间概念这么多。(注:这里只是最简单的介绍)先解释相关概念。相关概念:完备性简单说的话,就是对极限封闭。也就是说,如果对于空间SSS内的一点sis_isi​,lim⁡i→∞si=s\lim_{i\rightarrow\infty}s_i=slimi→∞​si​=s,sss也属于空间SSS的话,则称该

2021-07-21 06:42:24 693

原创 线性降维与统计学习理论(Linear Dimensionality Reduction & Statistical Learning Theory)

线性降维(Linear Dimensionality Reduction)(以PCA为例)引入主成分分析(Principal Component Analysis,PCA)是最常见的线性降维方法。拿之前的线性回归举例,对于最小二乘法的线性回归,其求解参数为:w^=(X^X^)−1X^y\hat{w}=(\hat{X}\hat{X})^{-1}\hat{X}yw^=(X^X^)−1X^y其中X^∈Rd×n\hat{X}\in \R^{d\times n}X^∈Rd×n,y∈Rn×1y\in \R^{n\

2021-07-18 22:55:45 623 2

原创 分类问题(Classification)

目录引入判别函数(Discriminant Functions)基本知识线性判别函数(Linear Discriminant Functions)二分类多分类Fisher 判别分析(Fisher Discriminant Analysis)一个例子用作引出正式开始尝试最大化两个类的均值(效果不好)同时考虑均值和方差(正式引入Fisher线性判别法)感知器算法(Perceptron Algorithm)逻辑回归(Logistic Regression)Generative vs. Discriminative

2021-07-17 18:29:37 2385

原创 线性回归(Linear Regression)

目录引入最小二乘法线性回归(Least Squares Linear Regression)一次项回归多项式回归(Polynomial Regression)回归的最大似然法(Maximum Likelihood Approach to Regression)概率回归(Probabilistic Regression)回归中的损失函数(Loss Functions in Regression)贝叶斯线性回归(Bayesian Linear Regression)最大后验(MAP)MAP与正则化的最小二乘法的

2021-07-16 23:33:31 1143 1

原创 概率密度估计(Probability Density Estimation)--Part3:混合模型

引入在结束了有参估计,无参估计后,现在记录混合模型(Mixture models)。这里附一张有参和无参的对比图(本来应该附在Part 2的,不想回去改了。。):字面意思,混合模型就是有参模型和无参模型的混合。举个例子,高斯模型的混合(Mixture of Gaussians,MoG)。现有三个高斯模型如下:我们可以将其视为:其概率密度可以近似表示为:p(x)=∑j=1Mp(x∣j)p(j)p(x)=\sum^M_{j=1}p(x|j)p(j)p(x)=j=1∑M​p(x∣j)p(j)

2021-07-12 06:00:48 1364

原创 概率密度估计(Probability Density Estimation)--Part 2:无参估计

目录引入直方图(Histograms)KDEParzen WindowGaussian KernelGeneral Formulation – Arbitrary Kernel各种内核的总结高斯核(Gaussian Kernel)Parzen windowEpanechnikov kernel总结KNN(附)作业相关代码引入接上一篇的有参估计,这篇介绍无参估计,也就是说在这里我们事先不知道数据的模型,而要求数据进行划分,这也是实际中比较常见的情况。这主要介绍三种无参估计方法,分别是:1. 直方图(H

2021-07-01 06:36:54 1574 2

原创 MCNemar检测和交叉验证(待完善)

。。。

2021-06-27 04:28:43 950

原创 概率密度估计(Probability Density Estimation)--Part 1:参数估计

概率密度的引入当我们有如下的点分布为了能区分它们,我们需要知道这些点的概率分布。常见的有贝叶斯最优分类(Bayes optimal classification),这是基于如下的概率分布:p(x∣Ck)p(Ck)p(x|C_k)p(C_k)p(x∣Ck​)p(Ck​)其中的先验p(Ck)p(C_k)p(Ck​)很容易...

2021-06-25 20:02:22 1670

原创 李代数求导和扰动模型

前一篇大概介绍了李群李代数的相关性质,这里主要介绍李代数在SLAM中的作用。这里写目录标题BCH公式及其近似形式SO(3)上的李代数的求导李代数求导扰动模型(左乘)SE(3)上的李代数求导BCH公式及其近似形式李代数在SLAM中的作用主要是进行优化,优化过程就不可避免地需要涉及到求导的过程。与标量不同,在矩阵中指数的运算法则并不适用,即是说在矩阵中:ln(exp(A)exp(B))≠A+Bln(exp(A)exp(B))\ne A+Bln(exp(A)exp(B))​=A+B取而代之的时BCH公

2021-05-08 04:27:12 1604

原创 李群和李代数

1. 群的定义在解释李群之前先简单说明一下群的基本定义。群(Group)是一种集合加上一种运算的代数结构,以A表示集合,“·”表示运算,则群一般写作 G(A, ·)。群要求满足以下四个条件:举个例子,旋转矩阵和乘法可以构成旋转矩阵群,因为其满足:1). 旋转矩阵相乘后仍是旋转矩阵;2). 矩阵乘法满足结合律;3). 幺元为单位矩阵,也属旋转矩阵;4). 旋转矩阵的逆也为旋转矩阵,且相乘为单位矩阵。李群李群是指拥有(连续)光滑性质的群,比如上面提到的旋转矩阵群,因其能在空间中连续旋转,变

2021-05-07 17:16:09 3750 2

原创 四元数(三维旋转)

用四元数表示三维旋转1.四元数的基本知识:与复数类似,四元数也由实部和虚部组成,但四元数有三个虚部,通常表示为:q=q0+q1i+q2j+q3kq=q_{0} + q_{1}i + q_{2}j + q_{3}kq=q0​+q1​i+q2​j+q3​k或: q=[s,v]T,其中:s=q0∈R,v=[q1,q2,q3]T∈R3q=[s, v]^{T}, 其中: s=q_{0} \in R, v=[q_{1},q_{2},q_{3}]^{T} \in R^{3}q=[s,v]T,其中:s=q

2021-04-02 06:09:28 633

原创 学习记录_Computer Vision1_作业1_(2)_Projective Transformation

(2)Projective Transformation作业要求:简单总结一下,就是说:二级标题三级标题四级标题五级标题六级标题

2020-12-24 04:35:21 426 4

原创 学习记录_Computer Vision1_作业1_(1) Bayer Interpolation

这次作业需要记录的有三道题,包括:拜尔图像目标转换图片过滤和边缘检测(1)Bayer Interpolation作业要求:简单来说,即是给出一张Bayer图片,将其转化为RGB图。作业给出的图片如下:这里先对Bayer图进行简要说明。与一般RGB图不同,Bayer图的像素分布如下图所示:由此可以发现,在Bayer图中,每个像素点都是由单一颜色所控制,而且绿色所占的比例是其他两种颜色的两倍,所以整张图片看起来会偏绿,我们所要做的就是通过插值将每个像素点的其他两种颜色算出来。步骤

2020-12-18 12:22:37 791 8

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除