1.朴素贝叶斯是有监督学习,EM算法为无监督。朴素贝叶斯需要知道数据的(x,y)配对,才能计算出先验概率和后验概率,而EM算法是对所有的隐层都进行计算求显层,不需要对数据进行标签。,只需要知道有多少种类的隐层即可
2.贝叶斯算法没有考虑数据样本之间的关联性,直接是利用统计方法计算属于某一隐层的个数、以及某一显层的个数,利用出发获得贝叶斯分类器的参数。
3.朴素贝叶斯算法忽略了样本这一维度,是建立在输入向量中每一维度的值是互相独立的前提条件下。
4.EM算法利用迭代的方式,由第i个参数通过求先验概率的方式 获得 属于某一隐层概率以及输入的值的概率,不同样本之间会有考虑,即一直更新模型,直至收敛至某一值(后一项的迭代值与前一项之差的绝对值小于ξ)
EM算法通过求概率的形式得到隐变量的后验概率;朴素贝叶斯通过统计中的该类别的个数与样本的总个数之比获得后验概率
5.由于隐变量的存在,因此EM算法不能直接通过梯度下降的方法直接对变量求导,只能先确定隐变量,然后固定隐变量的值,对显变量求导获取最大值之后,在更改隐变量的值,进而再对显变量求导,形成一个迭代的过程。