30、可分离实例的Bregman聚类研究

可分离实例的Bregman聚类研究

一、Bregman k - 中值聚类基础

1.1 Bregman散度定义

Bregman散度是一种衡量差异的度量,它由Lev M. Bregman在1967年提出。对于凸集 (X \subseteq \mathbb{R}^d) 和严格凸且可微的函数 (\varphi : X \to \mathbb{R}),Bregman散度定义为:
[D_{\varphi}(p, q) = \varphi(p) - \varphi(q) - \nabla\varphi(q)^{\top}(p - q)]
其中 (p, q \in X),(\nabla\varphi(q)) 表示 (\varphi) 在点 (q) 处的梯度。

常见的Bregman散度包括:
- 平方欧几里得距离 (D_{\ell_2^2}(p, q) = |p - q| 2^2),其中 (\varphi {\ell_2^2}(t) = |t| 2^2)。
- 广义Kullback - Leibler散度 (D
{KL}(p, q) = \sum p_i \ln \frac{p_i}{q_i} - \sum(p_i - q_i)),其中 (\varphi_{KL}(t) = \sum t_i \ln t_i - t_i)。
- Itakura - Saito散度 (D_{IS}(p, q) = \sum(\frac{p_i}{q_i} - \ln \frac{p_i}{q_i} - 1)),其中 (\varphi_{IS}(t) = -\sum \ln t_i)。

一般来说,Bre

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深学习本质上来自于传统的神经网络模型,很大程上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值