
常用数学知识
文章平均质量分 62
mjiansun
Live and Learn.
展开
-
【工程应用】两点三次Hermite(埃尔米特)、分段Hermite插值法
下面这张图为分段三次Hermite插值在Runge函数上的表现,也算是分段上的一种优势。这里命名比较长,不过也没什么关系,我比较喜欢把意思表示清楚,另外也有代码的。上面这张图中设置的插值节点是在 0 , pi/2,所以在前半部分比较贴合。已知: 两个插值节点机器对应的导数值。,也没有怎么不方便。转载 2024-09-18 10:28:42 · 479 阅读 · 0 评论 -
【概率与统计】抽样分布例子
从上图可以看到,尽管抽取的样本都是来自同一个总体,但是每个样本的身高均值是变化的。可以发现,对于非常正态数据的抽样分布,随着每次抽取样本数量的增加,抽样分布是收敛于正态分布N(μ,σ⁄√n)。然后,再计算出抽样分布的均值和标准误差,那么均值应该是接近理论值169.10,均值标准误差接近其理论值1.625=7.27/√20。接下来,同样在总体的正态分布N(169.10,7.27^2)下,取50万个样本,每个样本大小为20。接下来,从Df=2的卡方分布中,随机抽取50万个样本,样本大小分别为5和30。转载 2024-05-14 19:42:12 · 1106 阅读 · 0 评论 -
【工程应用】贝塞尔曲线
贝塞尔曲线可以由如下参数方程表示:即:其中 n为控制点P的数目减一(下标从0开始),且 0≤t≤1。转载 2024-04-24 17:17:49 · 952 阅读 · 0 评论 -
【数学知识】傅立叶变换、拉普拉斯变换和Z变换
既然要讲,我就从最基础的东西开始说一说,首先我们先来认识下三角函数,要说三角函数这个东西,我们首先要来说说弧度,什么是弧度呢,你可以在纸上画一个圆,选取圆的一段边,边长和这个圆半径的比值,就是该边与圆心对应夹角的弧度,不好理解是不是,没关系,看个图你就懂了弧度的单位是rad,你会发现,所有的和半径的比值都是2πRad,而π是一个的常数,它约等于3.1415926,可以发现弧度和角度是一个对应的关系,如果按角度制而言绕圆一周是360°,弧度制而言,就是2π了现在,我们引入另一个在。转载 2024-03-29 13:37:10 · 1962 阅读 · 0 评论 -
朗伯比尔定律
朗伯比尔定律(lambert-beer law)是分光光度法的基本定律,是描述物质对某一波长光吸收的强弱与吸光物质的浓度及其液层厚度间的关系。[1]转载 2023-12-21 13:50:42 · 5908 阅读 · 0 评论 -
圆、圆锥和球的相关概念和定义
圆的周长:C=2πr=πd(r为半径,d为直径)圆的面积:S=πr^2扇形弧长:L=圆心角θ(弧度制)×r= nπr/180(θ为圆心角,r为扇形半径,n为度数非弧度制)扇形面积:S1=nπ r²/360=Lr/2(L为扇形的弧长)转载 2023-06-12 16:08:15 · 1207 阅读 · 0 评论 -
【概率与统计】泊松分布(1)
公司楼下有家馒头店,每天早上六点到十点营业,生意挺好,就是发愁一个事情,应该准备多少个馒头才能既不浪费又能充分供应?老板统计了一周每日卖出的馒头(为了方便计算和讲解,缩小了数据):均值为:按道理讲均值是不错的选择(参见?),但是如果每天准备5个馒头的话,从统计表来看,至少有两天不够卖,40%的时间不够卖:你“甜在心馒头店”又不是小米,搞什么饥饿营销啊?老板当然也知道这一点,就拿起纸笔来开始思考。转载 2023-06-03 09:42:25 · 1436 阅读 · 0 评论 -
【概率与统计】泊松分布(2)
Poisson分布也是一种离散型分布,用以描述。Poisson分布也可用于Poisson分布一般记作或。转载 2023-06-02 19:01:34 · 934 阅读 · 0 评论 -
【概率与统计】二项分布
A出现称为成功,不出现称为失败,这类试验就称为成-败型实验。指定性资料中的二项分类实验。转载 2023-06-02 18:40:51 · 9789 阅读 · 0 评论 -
【概率与统计】最小二乘法
这里的距离最小并非点到直线的垂直距离最短,而是点到直接的y轴距离最短,即通过该点并与y轴平行的直线,点到该y轴平行线与直线交点的距离最短,如下图所示的双向箭头。例如在某种疾病是在两种条件下发生的,但是需要当这两种条件满足一定关系时才会促发疾病,因此医生就可以通过患病样本获得患病情况下的两种条件值,标记到一个二维坐标中,通过最小二乘法,可以将患病的两种条件通过函数表达出来,从而当有另外一个新疑似患者就医时,则可以根据二元一次方程确定是否可能患有该疾病。转载 2023-03-08 17:54:33 · 2759 阅读 · 2 评论 -
SVD的应用:求解Ax=b
SVD,Singular Value Decomposition,奇异值分解,作为线性代数中的重要工具,被应用在不同领域。本文只介绍如何使用这一工具求解。本节给出详细的例子介绍 【3. 关于解的讨论】中的情况,若已经理解前面的章节,可以跳过本节。2. 伪逆 Pseudoinverse。有一个大概的介绍,这里借用一下图片。iii.b. 矮胖但不满秩。ii.b. 细长但不满秩。iii.a. 矮胖且满秩。i.b. 方阵但不满秩。ii.a. 细长且满秩。i.a. 方阵且满秩。转载 2023-03-08 18:09:29 · 336 阅读 · 0 评论 -
角频率和频率的关系
物质在单位时间内完成周期性变化的次数叫做频率,常用f表示,单位为Hz。转载 2022-10-25 15:55:16 · 11173 阅读 · 0 评论 -
Jensen不等式简介及推导
https://blog.youkuaiyun.com/weixin_44285505/article/details/105296812转载 2022-08-31 10:03:08 · 489 阅读 · 0 评论 -
SVD(奇异值分解)
从上面的图片的压缩结果中可以看出来,奇异值可以被看作成一个矩阵的代表值,或者说,奇异值能够代表这个矩阵的信息。当奇异值越大时,它代表的信息越多。因此,我们取前面若干个最大的奇异值,就可以基本上还原出数据本身。如下,可以作出奇异值数值变化和前部分奇异值和的曲线图,如下图所示====================图片缺失==================从上面的第1个图,可以看出,奇异值下降是非常快的,因此可以只取前面几个奇异值,便可基本表达出原矩阵的信息。...转载 2022-08-25 16:32:11 · 696 阅读 · 0 评论 -
矩阵的迹(Trace)
的迹表示的是特征值的和,它不随基的变化而变化。通常,这种特性可以用来定义线性算子的轨迹。(注意迹是对方阵而言的)代数中,方阵A(n*n)的迹定义为对角线元素的和。其中A,B是方阵,c是常数。......转载 2022-07-30 10:08:17 · 26198 阅读 · 0 评论 -
求解逆矩阵的常用三种方法
矩阵A=1, 2-1,-3假设所求的逆矩阵为a,bc,d则从而可以得出方程组a + 2c = 1b + 2d = 0-a - 3c = 0-b - 3d = 1解得a=3; b=2; c= -1; d= -1伴随矩阵是矩阵元素所对应的代数余子式,所构成的矩阵,转置后得到的新矩阵。我们先求出伴随矩阵A*=-3, -21 , 1接下来,求出矩阵A的行列式|A|=1*(-3) - (-1)* 2= -3 + 2= -1从而逆矩阵A⁻¹=A*/|A| = A*/(-1)=转载 2022-07-13 10:32:32 · 21169 阅读 · 0 评论 -
拉格朗日乘子法--拉格朗日对偶
本文承接上一篇约束优化方法之拉格朗日乘子法与KKT条件,将详解一些拉格朗日对偶的内容。都是一些在优化理论中比较简单的问题或者一些特例,复杂的没见过,但是简单的刚接触都感觉如洪水猛兽一般,所以当真是学海无涯。在优化理论中,目标函数f(x)会有多种形式:如果目标函数和约束条件都为变量x的线性函数, 称该问题为线性规划; 如果目标函数为二次函数, 约束条件为线性函数, 称该最优化问题为二次规划; 如果目标函数或者约束条件均为非线性函数, 称该最优化问题为非线性规划。每个线性规划问题都有一个与之对应的对偶问题.转载 2022-03-23 15:14:50 · 1345 阅读 · 0 评论 -
拉格朗日乘子法--补充认识(不等式条件)
1. 不等式约束下的极值比如,我们要求刚才同心圆的最小值:那肯定就是原点啦,半径为0肯定就是最小值了。1.1 情况一1.2 情况二1.3 新增的条件2. KKT条件转载 2022-03-22 15:07:06 · 531 阅读 · 0 评论 -
拉格朗日乘子法--完整认识
引言本篇文章将详解带有约束条件的最优化问题,约束条件分为等式约束与不等式约束,对于等式约束的优化问题,可以直接应用拉格朗日乘子法去求取最优值;对于含有不等式约束的优化问题,可以转化为在满足 KKT 约束条件下应用拉格朗日乘子法求解。拉格朗日求得的并不一定是最优解,只有在凸优化的情况下,才能保证得到的是最优解,所以本文称拉格朗日乘子法得到的为可行解,其实就是局部极小值,接下来从无约束优化开始一一讲解。无约束优化等式约束优化不等式约束优化参考文献:1.转载 2022-03-22 14:56:32 · 743 阅读 · 0 评论 -
Python实现PolynomialFeatures多项式的方法
1. PolynomialFeatures多项式import numpy as npfrom sklearn.preprocessing import PolynomialFeatures #这哥用于生成多项式x=np.arange(6).reshape(3,2) #生成三行二列数组reg = PolynomialFeatures(degree=3) #这个3看下面的解释reg.fit_transform(x)x是下面这样:我们发现规律如下:2. Python生成多项转载 2022-03-16 11:01:44 · 2940 阅读 · 1 评论 -
直线的极坐标方程
转自:直线的极坐标方程 - 知乎简单回顾一下,在直角坐标系里,水平的叫x轴,竖直的叫y轴,两轴交点叫原点。我们描述一个点,会用它到两轴的距离x、y来表示①。极坐标系②呢,只有一条射线,左端点叫极点,这条射线叫极轴。描述点的时候,会用这个点到极点的距离ρ,以及该点和极点的连线l,与极轴的夹角θ来表示。虽然你现在不喜欢极坐标系,但是你不了解一个人的时候,也很难特别喜欢他。今天先拿直线来说,你可能不喜欢,但要熬过认识它的第一阶段。从最简单的开始:01转载 2022-03-09 14:50:30 · 16193 阅读 · 1 评论 -
多元泰勒展开
最近在看变分法,里面有一条公式这一步一直都不明白,直到看了二元泰勒展开(比较懒,直接截图了,其中为高次项)一切豁然开朗,原来这个等式,直接就是二元泰勒展开的公式的一次项多元泰勒展开其实就是在一元泰勒展开的基础上,分别把所有的变量进行泰勒展开,然后加起来,但是在二次项以后相对要复杂一点,不过大多数情况都用不到高次项,感觉还好。具体的证明过程可以参考二元函数的泰勒公式_ChenQihome9的博客-优快云博客_二元函数的泰勒展开,或者直接看课本...转载 2022-03-04 15:36:01 · 3610 阅读 · 0 评论 -
一维高斯函数推广到多维高斯函数
后面的没看懂。。。转自:多维高斯分布是如何由一维发展而来的? - 知乎转载 2022-02-24 15:00:47 · 1044 阅读 · 0 评论 -
矩阵求导术(下)
自己转载备份用,请看原作者的博文矩阵求导术(下) - 知乎转载 2021-12-09 10:48:03 · 235 阅读 · 0 评论 -
矩阵求导术(上)
矩阵求导术(上) - 知乎这篇博客的转载备份,希望大家去原博主那看,那边清晰明确一点。转载 2021-12-09 10:46:45 · 250 阅读 · 0 评论 -
AB的转置等于B的转置乘以A的转置
我不想写formalized proof,我打算从一个例子来说明这个东西,我也看了前面的答案,写的不是太好,虽然也没多少人关注这个问题就是了,就当自己写笔记吧,要说明这个东西你先的真的对矩阵乘法的有一些几何上的理解才比较好办,矩阵乘法可以从不同的view产生不同的理解,(顺带一句我认为 这种理解是最low的,理解止于这一步就让linear algebra彻底沦为算术了,这是非常反人类的),回答这个问题之前,我先介绍两种对矩阵乘法的理解有矩阵AB=C为 column view对于矩阵运算AB.转载 2021-11-16 16:17:52 · 10518 阅读 · 0 评论 -
灵敏度和特异度的置信区间怎么算?
很多医学生及医生经常会对诊断实验进行评价,评价诊断试验的常用指标及计算方法都比较容易掌握,但是少有人知道其相应的95%的置信区间的计算方法。我们简单的回顾一下,诊断试验评价的基本方法是用所谓的“金标准”,确诊区分患者和非患者,再应用待评价的方法测定这些研究对象,然后比较两种方法的一致性。 预测值 阳性 阴性 实际值 患者 a b 非患者 c d 公式法评价诊断试验的常用指标主要有灵敏度、特异度、一致率、Youden指数转载 2021-10-14 11:22:04 · 12918 阅读 · 0 评论 -
U分布、T分布、z分位数
链接:https://pan.baidu.com/s/1mJIDmAVZ51Z0B9LwZ_N6yw提取码:tzxd转载 2021-08-11 20:01:44 · 14145 阅读 · 0 评论 -
如何理解矩阵的「秩」?
本文作者@Heshawn,点击关注,转载需授权。利益相关:知乎『线性代数』系列Live主讲人小时候老师总告诉我们「要有n个方程才能确定地解出n个未知数」——这句话其 实是不严格的,如果你想确定地解出n个未知数,只有n个方程是不够的,这n方程 还必须都是「干货」才行。从这个角度,初学者可以更好地理解「矩阵的秩」。其实,《线性代数》这门课自始自终被两条基本线索交叉贯穿——它们可以被称为这门课程最为关 心的两大基本问题;当这两个问题被深入地研究之后,我们还会发现这两者在某一个节点上被统一 在了一起——这转载 2021-04-16 09:42:21 · 11354 阅读 · 4 评论 -
二次规划问题(Quadratic Programming)(Octave求解)
转自:https://blog.youkuaiyun.com/ouening/article/details/90549538转载 2021-04-08 16:27:59 · 492 阅读 · 0 评论 -
等价矩阵、相似矩阵、合同矩阵
转载 2021-03-31 13:59:51 · 1075 阅读 · 0 评论 -
图像质量评价指标之 PSNR 和 SSIM
转自:https://zhuanlan.zhihu.com/p/50757421暂时只理解了PSNR,后续如果用到SSIM再来研究补充。1. PSNR (Peak Signal-to-Noise Ratio) 峰值信噪比其中,第二和第三种方法比较常见。# im1 和 im2 都为灰度图像,uint8 类型# method 1diff = im1 - im2mse = np.mean(np.square(diff))psnr = 10 * np.log10(255 * 25转载 2021-03-29 15:00:06 · 2157 阅读 · 0 评论 -
常用分布函数
0-1分布二项分布泊松分布均匀分布指数分布正态分布转载 2021-03-29 11:16:34 · 3715 阅读 · 0 评论 -
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
https://blog.youkuaiyun.com/u011508640/article/details/72815981转载 2021-03-26 17:25:37 · 186 阅读 · 0 评论 -
条件概率、全概率和贝叶斯公式
1、条件概率公式 设A,B是两个事件,且P(B)>0,则在事件B发生的条件下,事件A发生的条件概率(conditional probability)为:P(A|B)=P(AB)/P(B)分析:一般说到条件概率这一概念的时候,事件A和事件B都是同一实验下的不同的结果集合,事件A和事件B一般是有交集的,若没有交集(互斥),则条件概率为0,例如:① 扔骰子,扔出的点数介于[1,3]称为事件A,扔出的点数介于[2,5]称为事件B,问:B已...转载 2021-03-26 16:28:02 · 11570 阅读 · 0 评论 -
特征值和特征向量的几何意义是什么?
矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩的变化。如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义。物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定。特征值大于1,所有属于此特征值的特征向量身形暴长;特征值转载 2021-03-22 10:27:31 · 853 阅读 · 0 评论 -
向量和矩阵的点乘和叉乘
向量定义:向量是由N个实数组成的一行N列或N行一列的的数组。点乘:又叫做点积、内积、数量积、标量积,向量a[a1,a2,...,an]和向量b[b1,b2b...,bn]点乘的结果是一个标量,记作a.b;几何解释:a.b = |a| |b|,故而点乘可以计算出两个向量的夹角,且向量垂直,点乘结果为零。叉乘:又叫向量积、外积、叉积,叉乘,向量a[x1,y1,z1]和向量b[x2,y2,z2]叉乘的运算结果是一个向量,并且两个向量的叉积与这两个向量组成的坐标平面垂直,记作axb;计算方式:.转载 2021-01-29 10:40:23 · 7743 阅读 · 1 评论 -
信息量,熵,条件熵,相对熵,交叉熵,信息增益,互信息,信息增益比
接着信息量与熵,我们再来看看条件熵,相对熵,交叉熵,信息增益,互信息,信息增益比。1 信息量2 熵3 条件熵4 相对熵(KL散度)详解链接https://blog.youkuaiyun.com/u013066730/article/details/1129887335 交叉熵6 信息增益西瓜书的第四章链接:https://pan.baidu.com/s/16xMD5CvTzO4TurNJ602Bmw提取码:ydvv推导公式:https://...转载 2021-01-26 16:30:40 · 259 阅读 · 0 评论 -
相对熵(KL散度)
上一篇文章我们简单介绍了信息熵的概念,知道了信息熵可以表达数据的信息量大小,是信息处理一个非常重要的概念。推导到这相信很多人会想,既然如此,那为什么现在还是很多人用相对熵衍生出来的交叉熵作为损失函数来训练神经网络而不直接用距离相关的均方差呢?以下面的例子稍作解释:假设神经网络的最后一层激活函数为sigmoid,它长这样:可以看到它的两头异常的平,也就是说在那些地方的导数接近于0。而反向传播是需要求导的,用了均方差损失函数之后求导结果包含y ( y − 1 )(可参考这篇文章),这在y接近.转载 2021-01-22 16:33:45 · 985 阅读 · 1 评论 -
如何判断两条轨迹(或曲线)的相似度?
比如下图,虽然它们的重合度不高,但是它们的结构是一样的,应当认为它们是很相似的,请问如何量化的判断呢?有什么好的算法?做过一个小研究是关于判断曲线的相似性的,下面正文答案已经基本上解决了该问题。使用归一化后的Fréchet distance即可。另外也可使用Hausdorff distance,但是使用效果不如前者。推荐几篇论文仅供参考:Alt H, Godau M (1995) Computing the Fréchet distance between two polygonal cu.转载 2020-12-01 15:48:07 · 28770 阅读 · 3 评论