- 博客(3)
- 收藏
- 关注
原创 极大似然估计和EM算法
EM算法是一种迭代优化方法,用于解决含有隐变量的统计模型参数估计问题。其核心思想分为两步:E步(期望步)计算隐变量的后验概率;M步(最大化步)基于E步结果更新参数估计。算法首先通过极大似然估计介绍参数估计的基本原理,即通过观测数据寻找最可能产生该数据的参数值。当存在隐变量(如不知球来自哪个盒子)时,EM算法通过交替执行E步(计算隐变量分布的期望)和M步(最大化完全数据似然)来迭代优化参数,直至收敛。该方法广泛应用于混合模型、缺失数据处理等领域。
2025-11-03 16:36:33
1581
原创 MAB问题中遗憾上界和下界
算法在每一轮中从多个选择(称为“臂”)中选择一个,并根据选择获得随机奖励。每个臂的奖励分布是固定但未知的,算法的目标是通过探索(尝试不同臂以了解其奖励)和利用(选择当前已知最好的臂)来最大化长期累积奖励。MAB是强化学习的一个基础模型,广泛应用于推荐系统、广告投放、医疗试验等领域。例如,在新闻推荐中,每个臂对应一篇文章,算法根据用户点击反馈学习哪些文章更受欢迎。遗憾(Regret)是衡量算法性能的关键指标,定义为算法累积奖励与“最佳固定臂”累积奖励之间的差值。
2025-10-26 23:27:03
1396
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1