李宏毅机器学习4

博客介绍了贝叶斯公式,包括后验概率、先验概率等概念,还阐述了朴素贝叶斯的相关内容。同时对比了逻辑回归和线性回归,指出二者均属广义线性回归,在优化目标函数、输出值等方面存在差异,线性回归拟合数据,逻辑回归训练分类器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 贝叶斯公式:
    P(Ai∣B)=P(B∣Ai)P(Ai)∑i=1nP(B∣Ai)P(Ai) P\left(A_{i} | B\right)=\frac{P\left(B | A_{i}\right) P\left(A_{i}\right)}{\sum_{i=1}^{n} P\left(B | A_{i}\right) P\left(A_{i}\right)} P(AiB)=i=1nP(BAi)P(Ai)P(BAi)P(Ai)

    • P(A|B) 指在 B 发生的情况下 A 发生的可能性,即已知 B 发生后 A 的条件概率,也可以理解为先有 B 再有 A,由于源于 B 的取值而被称作 A 的后验概率
    • P(A) 指 A 的先验概率或边缘概率(先验可以理解为事件 A 的发生不考虑任何 B 方面的因素)
    • P(B) 指 B 的先验概率或边缘概率,也可以作为标准化常量
    • P(B|A) 指已知 A 发生后 B 的条件概率,即先有 A 再有 B,由于源于 A 的取值而被称作 B 的后验概率
  • Naive Bayes(参考wiki)
    Using Bayes’ theorem, the conditional probability can be decomposed as
    p(Ck∣x)=p(Ck)p(x∣Ck)p(x) p\left(C_{k} | \mathbf{x}\right)=\frac{p\left(C_{k}\right) p\left(\mathbf{x} | C_{k}\right)}{p(\mathbf{x})} p(Ckx)=p(x)p(Ck)p(xCk)
    分母常数,分子是joint probability model p(Ck,x1,…,xn)p\left(C_{k}, x_{1}, \ldots, x_{n}\right)p(Ck,x1,,xn)
    p(Ck,x1,…,xn)=p(x1,…,xn,Ck)=p(x1∣x2,…,xn,Ck)p(x2,…,xn,Ck)=p(x1∣x2,…,xn,Ck)p(x2∣x3,…,xn,Ck)p(x3,…,xn,Ck)=…=p(x1∣x2,…,xn,Ck)p(x2∣x3,…,xn,Ck)…p(xn−1∣xn,Ck)p(Cn∣Ck)p(Ck) \begin{aligned} p\left(C_{k}, x_{1}, \ldots, x_{n}\right) &=p\left(x_{1}, \ldots, x_{n}, C_{k}\right) \\ &=p\left(x_{1} | x_{2}, \ldots, x_{n}, C_{k}\right) p\left(x_{2}, \ldots, x_{n}, C_{k}\right) \\ &=p\left(x_{1} | x_{2}, \ldots, x_{n}, C_{k}\right) p\left(x_{2} | x_{3}, \ldots, x_{n}, C_{k}\right) p\left(x_{3}, \ldots, x_{n}, C_{k}\right) \\ &=\ldots \\ &=p\left(x_{1} | x_{2}, \ldots, x_{n}, C_{k}\right) p\left(x_{2} | x_{3}, \ldots, x_{n}, C_{k}\right) \ldots p\left(x_{n-1} | x_{n}, C_{k}\right) p\left(C_{n} | C_{k}\right) p\left(C_{k}\right) \end{aligned} p(Ck,x1,,xn)=p(x1,,xn,Ck)=p(x1x2,,xn,Ck)p(x2,,xn,Ck)=p(x1x2,,xn,Ck)p(x2x3,,xn,Ck)p(x3,,xn,Ck)==p(x1x2,,xn,Ck)p(x2x3,,xn,Ck)p(xn1xn,Ck)p(CnCk)p(Ck)
    Naive conditional independence assume that all features in x are mutually independent, conditional on the category CkC_kCk:
    p(xi∣xi+1,…,xn,Ck)=p(xi∣Ck) p\left(x_{i} | x_{i+1}, \ldots, x_{n}, C_{k}\right)=p\left(x_{i} | C_{k}\right) p(xixi+1,,xn,Ck)=p(xiCk)
    Thus the joint model can be expressed as
    p(Ck∣x1,…,xn)∝p(Ck,x1,…,xn)=p(Ck)p(x1∣Ck)p(x2∣Ck)p(x3∣Ck)⋯=p(Ck)∏i=1np(xi∣Ck) \begin{aligned} p\left(C_{k} | x_{1}, \ldots, x_{n}\right) & \propto p\left(C_{k}, x_{1}, \ldots, x_{n}\right) \\ &=p\left(C_{k}\right) p\left(x_{1} | C_{k}\right) p\left(x_{2} | C_{k}\right) p\left(x_{3} | C_{k}\right) \cdots \\ &=p\left(C_{k}\right) \prod_{i=1}^{n} p\left(x_{i} | C_{k}\right) \end{aligned} p(Ckx1,,xn)p(Ck,x1,,xn)=p(Ck)p(x1Ck)p(x2Ck)p(x3Ck)=p(Ck)i=1np(xiCk)

  • LR和linear regression之间的区别与区别:
    逻辑回归和线性回归都是广义的线性回归
    线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数
    线性回归的输出是实域上连续值,LR的输出值被S型函数映射到[0,1],通过设置阀值转换成分类类别
    liner regression期望拟合训练数据,通过feature的线性加权来预测结果; logistic regression是在训练一个最大似然分类器。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值