
统计学习方法
不要关注我
这个作者很懒,什么都没留下…
展开
-
拉格朗日对偶性理解
https://www.cnblogs.com/gczr/p/10521551.html转载 2021-02-23 13:15:48 · 139 阅读 · 0 评论 -
感知机(Perceptron)为什么不能表示异或(XOR)
异或之所以重要,是因为它相对于其他逻辑关系,例如与(AND), 或(OR)等,异或是线性不可分的。反证法简单理解,如果两个数a和b进行异或操作。如果a、b两个值不相同,则异或结果为1。如果a、b两个值相同,异或结果为0。参考链接:https://www.jianshu.com/p/e79169493d75https://blog.youkuaiyun.com/bitcarmanlee/article/details/78770072...原创 2021-02-07 15:04:25 · 827 阅读 · 1 评论 -
如何理解感知机的对偶形式
原创 2021-02-07 13:47:00 · 136 阅读 · 0 评论 -
超平面的法向量为什么是W
根据高数:AX+By+C=0则(A,B)是超平面的法向量。https://www.sohu.com/a/206572358_160850?spm=smpc.content.share.1.1612670476440jwHKMGt#comment_area原创 2021-02-07 12:21:01 · 1278 阅读 · 0 评论 -
伯努利分布的最大似然估计与贝叶斯估计
求概率模型的最大似然估计的一般步骤如下:写出随机变量的概率分布函数;写出似然函数;对似然函数取对数,并进行化简整理;对参数进行求导,找到似然函数的极值点;解似然方程。似然函数是一种关于统计模型参数的函数。给定输出x时,关于参数θ的似然函数L(θ|x)(在数值上)等于给定参数θ后变量X的概率:L(θ|x)=P(X=x|θ)。关于伯努利分布的贝叶斯估计参见https://blog.youkuaiyun.com/lynn_001/article/details/83904835?utm_medium=dist原创 2021-02-06 23:28:43 · 3695 阅读 · 0 评论 -
最大似然估计与经验风险最小化;最大后验估计与结构风险最小化
当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化就等价于极大似然估计。原创 2021-02-06 15:16:33 · 674 阅读 · 0 评论