统计学习方法
文章平均质量分 81
古路
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
使用向量计算点到直线的距离
为直线上的两个点, 求红色的点到直线的距离。红色的点为鼠标位置, 蓝色的点。将问题进行一下转化:如下图所示。转载 2024-07-12 09:58:33 · 1358 阅读 · 0 评论 -
HMM隐马尔科夫模型
Hidden Markov Model, 马尔科夫模型.最后利用维特比算法求解最优状态。原创 2024-01-18 20:43:37 · 320 阅读 · 0 评论 -
泛函与变分法
变分法求解的是泛函极值问题,变分法将泛函求极值问题通过欧拉-拉格朗日方程(满足欧拉-拉格朗日方程是泛函具有极值的必要非充分条件)转换为微分方程的求解。原创 2022-11-16 18:05:44 · 1127 阅读 · 0 评论 -
最小生成树 Minimum Spanning Tree
两种解法的思路1584-连接所有点的最小费用示例 1:1.Kruskal算法并查集的路径压缩:Kruskal算法思路:Kruskal 算法以边为单元,时间(m log(m))主要取决于边数,比较适合于稀疏图.2.Prim算法prim 算法其实就是 BFS 思想。注意优先队列的 cmp ,有点反直觉啊。......原创 2022-06-30 21:30:27 · 344 阅读 · 0 评论 -
熵-条件熵-联合熵-互信息-交叉熵
属于信息论基本概念。wiki如何理解信息熵,这个视频做得真的很棒!信息量:x=log2Nx = log_2Nx=log2N, NNN 为等可能事件数量。例如,信息量为3,则原始等可能事件数为 23=82^3=823=8.信号量是信息熵的一个特例:事件是等可能发生的。这篇文章中给出了定义:定义:熵, 用来度量信息的不确定程度。解释: 熵越大,信息量越大。不确定程度越低,熵越小,比如“明天太阳从东方升起”这句话的熵为0,因为这个句话没有带有任何信息,它描述的是一个确定无疑的事情。例子也很直观:例子:假设有随原创 2022-06-30 11:56:39 · 768 阅读 · 0 评论
分享