
基础理论
文章平均质量分 60
数学
u013250861
这个作者很懒,什么都没留下…
展开
-
信号与系统:综述【知识梳理】
一、绪论知识1、信号的描述、分类和常见的信号通信系统:信源→信道→信宿消息与信号:消息是信号的具体内容信号是消息的表现形式信号处理:目的:更好的进行信号传输与交换方法:去除噪声与干扰,将信号变为更容易接收的形式信号的描述方法:数学表达式图示频谱描述信号的分类:确定性信号/随机信号周期信号/非周期信号连续时间信号/离散时间信号典型信号举例:指数信号单边指数衰减信号正弦信号指数衰减的正弦信号Sa信号高斯信号(钟形信号)信原创 2021-09-05 17:45:57 · 8751 阅读 · 0 评论 -
最大信息系数(MIC)——大数据时代的相关性分析
最大信息系数(The Maximal Information Coefficient,MIC)是在互信息的基础上发展起来的,MIC方法能快速通过给不同类型的关联关系进行评估,从而发现广泛范围的关系类型,此算法的作者来自哈佛大学,并在生物学等数据上进行了成功的实验,相关成果公布在Science杂志上。,是指在样本量足够大(包含了样本的大部分信息)时,能够捕获各种各样的有趣的关联,而不限定于特定的函数类型(如线性函数、指数函数或周期函数),或者说能均衡覆盖所有的函数关系。给定一个x乘y的网格G,令。原创 2023-05-17 16:04:26 · 3732 阅读 · 0 评论 -
泛函+变分:变分原理(Variational Principle)
对付数学物理中极值问题,变分大法(variational principle)可谓是杀人放火居家旅行的必备工具。原创 2022-09-05 17:08:21 · 1384 阅读 · 0 评论 -
信息论:信息量、信息熵(最短平均编码长度)、条件熵、交叉熵(用非真实分布信息量表示的平均编码长度)、相对熵/信息增益/KL散度=交叉熵-信息熵、JS Divergence、F-Divergence
相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量 。在信息理论中,相对熵等价于两个概率分布的信息熵(Shannon entropy)的差值 。相对熵是一些优化算法,例如最大期望算法(Expectation-Maximization algorithm, EM)的.原创 2020-12-29 20:27:05 · 1552 阅读 · 1 评论 -
电路分析:综述
电路原理课程是电类各专业最重要的一门学科基础课,后续各专业基础课和专业课都建立在这门课程的知识体系之上,因此是电类专业本科生的“看家课”之一。电路原理课程的主要内容包括以下4大部分:线性电阻电路分析、非线性电阻电路分析、动态电路的时域分析正弦激励下动态电路的稳态分析...原创 2022-03-30 23:47:41 · 347 阅读 · 0 评论 -
机器学习中的数学
“ 想要深入了解机器学习和深度学习背后的数学支撑?想要避免成为调包侠?想要做更前沿更基础的研究?不仅是 Import xxx as xx,这里是“机器学习中的数学”第一篇,带你从宏观上认知AI背后的数学 ”00 导言从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识。Learning和Vision都是很多种数学的交汇场。看着不同的理论体系的交汇,对于一个researcher来说,往往是非常exciting的enjoyable的事情。不过,这也代表着要充分了解原创 2021-09-05 20:56:06 · 959 阅读 · 1 评论 -
数学-总结(一):希腊字母简表
函数极限导数微分不定积分定积分泰勒(Taylor)中值定理麦克劳林(Maclaurin)公式原创 2020-10-27 22:15:24 · 1202 阅读 · 0 评论 -
数值最优化方法:Conjugate Function(共轭函数/对偶函数)
Fenchel共轭函数原创 2021-01-02 20:05:07 · 1451 阅读 · 0 评论 -
L2范数归一化
结论:L2范数归一化就是向量中每个元素除以向量的L2范数原创 2021-04-03 21:49:16 · 946 阅读 · 0 评论