
基础知识
文章平均质量分 66
MAUM
人工智能、数字图像处理、数字信号处理、机械故障诊断
展开
-
Vlookup的具体使用 mythtype注册表
vlookup就是为了从一堆数据中找到你需要的数据,比如你有一个空表,学生的名单,别人手里也是这些人,但是顺序不一样,导致你自己得一个一个把把对应的数据粘过来,很费劲,有这个函数就好办多了。第二个参数是查找区域,下意识的,这里是别人给你的名单里的名称那一列,实际应该包括你需要的数据,我这里弄的是 整个区域,加$固定住不让他变。,就是这个粉色框内的第几列。第一个参数是你空白名单里的人名,也就是要匹配查找的信息;很久才能用一次,每次用都忘记,这次弄个图文教程。第四个参数:精密查找,我就默认0。原创 2023-06-20 17:01:30 · 305 阅读 · 0 评论 -
机器学习经典损失函数复习:交叉熵(Cross Entropy)和KL散度
满心欢喜想运行一下faster R-CNN,结果前路坎坷。先不说运行faster R-CNN了,先配置好caffe环境吧。(官网说好的all-in-one)我以为直接就能运行例程了,原来只是预装了这三个:CUDA、OpenCV和CuDNN)编译caffe需要很多依赖关系,特别是版本升级后,使用jetpack3.3时,更多的库以及路径需要指定。caffe的基本安装步骤不变,参考之前的文章:...原创 2021-06-25 16:25:12 · 921 阅读 · 1 评论 -
浅谈线性判别分析LDA
LDA浅显的核心是类内散度和类间散度矩阵,浅尝辄止的话,不可能明白最大化目标函数的意义。当你提出疑问:为什么是求协方差矩阵的行列式?为什么需要至少t+c个样本才能保证类内散度不是奇异的?奇异不奇异有什么关系呢?这时候就有必要进一步来领悟其中的道理。为了解答这些疑问,我也是进一步去了解行列式的真正含义,单纯从理论上无法得知,然而结合行列式的几何意义,那一些都是那么的清晰直观。以矩阵A为例,将每一个列向量认为是多边形的一条边,则det(A)就是多边形的面积。矩阵有诸多用途,比如线性变换,将一原创 2021-03-22 17:50:56 · 461 阅读 · 0 评论 -
t-SNE原理简述及matlab实现
简介t-SNE是高维数据可视化的工具,是SNE(Hinton and Roweis在2002年提出)的变体,比SNE更容易优化,通过减弱数据点向中心拥挤的趋势来获取更好的可视化效果。首先介绍SNESNESNE将数据点之间的欧拉距离转化为条件概率,这一点很值得借鉴,看问题的角度很重要。将数据点xi作为参考点,求xj到xi的距离,将xi认为是高斯分布的中心,deltai是标准差。则其余数据点到中心的距离被看做是分布概率,两者离得越近,概率越大,离得越远,概率越小。这就把距离近的点的重要性给提上原创 2021-03-04 19:22:37 · 8787 阅读 · 12 评论 -
再品协方差矩阵
协方差矩阵指的是高维变量的每一维之间的相关性,或称为方差和协方差。标准化的表示一个向量,是列向量,比如x=[1 2 3 4]^T,我们说这个变量是4维的。通过传感器或数据处理,得到N个样本,这些样本组成一个样本矩阵:是4维列向量,则协方差矩阵是4*4维的非负定对称矩阵,主对角线是各个维度数据的方差,其余位置是对应两个维度的协方差。协方差矩阵不是无缘无故求的,一般是从推导过程中提取出来的,或者是用于提取主成分。经典的PCA的一种计算方法就是先计算样本矩阵的协方差矩阵,然后对协方差矩阵进行特征值原创 2021-02-18 18:19:32 · 217 阅读 · 0 评论 -
大白话说说 朴素贝叶斯
撕开算法的神秘面纱看了一大堆让人头疼的公式,真正想表达的思想,其实很简单。一切都在这个乾坤大挪移里面:这个公式将后验概率以先验概率的形式表达,说一千道一万,做的事儿很简单,就是先假设数据X服从某种分布,但是参数未知。一般假设服从高斯分布,那么未知参数就是均值和标准差,这两个参数很容易获取,但是数据X是n维的向量,那朴素点对待吧,假想n维之间是相互独立的,皆大欢喜,每一维对应一组均值和标准差。计算类概率P(Ci)就统计训练集中每一类的占比即可,或者干脆假设每一类出现的概率均等。计算P(X|原创 2021-02-18 09:35:52 · 154 阅读 · 0 评论 -
谈谈自己对投影、SVD和傅里叶变换的理解
相信搞过数据处理的都遇到这样的公式:一开始我也是一头雾水,看了很多解释,就是弄不明白为什么要这么写,最近在看SVD的时候将投影联系起来,恍然大悟,可能讲不明白,但是借用一下我老师的一句话:不管你们明白不明白,反正我是明白了。投影:在脑子里刻画一下,一个经典的题目:在三维坐标系下,求一个向量x在x-y平面上的投影。这不是手到擒来嘛?把x的z轴分量去掉就行了,没错,就是这么简单,但是现在我们要把简单的事情标准化,让其普适起来。联想傅里叶变换,我们利用傅氏变换与反变换可以去掉一些噪声,或者简单理解..原创 2021-02-06 10:31:55 · 1275 阅读 · 0 评论 -
简简单单说一下一阶矩、二阶矩、E(x(t))、中心矩等
看论文经常碰到专业领域的词汇,然而有的时候就弄的比较模糊,今天简单总结和贯通一下。矩,百度一查,:本意是指曲尺,一种基本工具,可以画直角形和方形,也可以测度直线长短或估量角度数,也指法度等。名字的由来肯定是有意义的,那么概率论里的矩,应该就是度量数据的。概率论的描述是:矩(moment)是对变量分布和形态特点的一组度量。n阶矩被定义为一变量的n次方与其概率密度函数(Probability Density Function, PDF)之积的积分。这么一说就懵了,后面还有,变量的一阶原始矩等价于原创 2021-01-25 16:56:53 · 17636 阅读 · 2 评论 -
协方差矩阵、相关矩阵、相关函数的联系与区别
基础不牢,地动山摇。数学很多符号描述的一个简单的思想,然而我们不太了解,因此觉得很多东西很难看不懂,其实他就是在讲述思维的过程。看了很多理论书,都似懂非懂,归根结底就是基础不行,今天也是复习和巩固一下统计学基础。先说结论:1无论是自相关还是互相关,都是描述的几个列向量之间的事情,列向量组合起来就变成了矩阵。2自相关函数指的是列向量的相关系数构成的函数,对于离散序列,自相关函数的变量就是序列的时间差,也就是E[x(k)x(k-t)],当t=0时,求的就是均方值。3相关矩阵出来的就是矩...原创 2021-01-11 17:16:42 · 11438 阅读 · 0 评论 -
维纳滤波的详细讲解(同为小白,相互取暖)
1简介本文主要目的是回顾和巩固维纳滤波的基础和应用。1.1 对象 一维音频信号,带高斯随机噪声。1.2 约定 期望信号/纯净信号序列: x(n) 噪声信号序列: v(n) 带噪信号序列: y(n) 序列长度: L 维纳滤波器阶数:M1.3 假设 信号是平稳的:也就是说在过去的一段时间和现在的一段时间内,纯净信号和噪声的均值、方差等信息是不变的,这是利用过去信息估计现在信息的基础。 期望信号与噪声...原创 2021-01-02 12:11:42 · 6225 阅读 · 0 评论 -
MATLAB如何修改打开时的默认文件夹或默认路径
参考这篇文章:https://www.cnblogs.com/mat-wu/p/6135555.html有一点需要补充,如果路径是有中文,那么使用notepad修改matlabrc.m后,会出现路径无法识别的情况,应该是编码错误,导致不识别。这个时候可以以管理员身份运行matlab,然后在matlab中HOME->open打开这个.m文件,然后再将路径输入,保存,即可。...原创 2020-03-27 21:12:01 · 5847 阅读 · 0 评论 -
矩阵相关的一些中英文对照术语
1. Pivot 是主元,在一些计算中首先被选中的矩阵的元。例如高斯消去法往往选择绝对值最大的矩阵元素为主元2. solution 解 unique solution 唯一解 infinitely many solutions无穷多解 has solution 有解 no solution 无解3. entry 矩阵的项,经常用在代指向量中的元素。leading entry o...原创 2018-12-02 10:39:18 · 11323 阅读 · 0 评论