机器学习算法中的期望最大化、K近邻与多层感知器
1. 期望最大化(Expectation Maximization)
期望最大化(EM)是一种流行的无监督聚类技术,其基本概念与K-Means算法类似,都是用高斯分量的混合来建模分布。但不同的是,学习这些高斯分量的过程是一个迭代过程,在期望(E-step)和最大化(M-step)两个阶段之间交替进行。
在OpenCV中,EM算法在 cv::ml::EM 类中实现,其类声明如下:
// Somewhere above..
// namespace cv {
// namespace ml {
//
class EMImpl: public EM { // cv::ml::EM is derived from cv::ml::StatModel
public:
// Types of covariation matrices
// (Inherited from cv::ml::EM)
//
//enum Types {
// COV_MAT_SPHERICAL = 0,
// COV_MAT_DIAGONAL = 1,
// COV_MAT_GENERIC = 2,
// COV_MAT_DEFAULT = COV_MAT_DIAGONAL
//};
// get/set the number of clusters/mixtures (5 by default)
//
int getClustersNumber() const; /
超级会员免费看
订阅专栏 解锁全文
1672

被折叠的 条评论
为什么被折叠?



