RELR与贝叶斯在线学习:原理、优势与应用
1. RELR的基本原理与优势
1.1 RELR对多项式特征的拟合
RELR提供了一种拟合由多项式特征组成的逻辑回归模型的方法,可通过泰勒级数在预期效果方面近似其他知名函数。不过,像指数、正弦和余弦等函数在泰勒级数展开中,高阶多项式特征的相对权重会迅速下降。例如,正弦函数泰勒级数中的下一项是$x^5/5!$,其权重仅为线性项$x$的1/120。由于噪声的存在,即使RELR具备误差降低能力,大多数高阶项也可能无法被解析。因此,目前仅包含前几个多项式项的RELR软件实现,可能已接近对这些知名解析函数的最佳近似。
1.2 RELR与杰恩斯原理
RELR旨在根据数据和约束条件生成最可能的解决方案。与标准逻辑回归不同,RELR考虑了所有测量误差来源的不确定性。然而,RELR产生的解决方案并非没有误差或偏差,其截距和回归系数会存在偏差和误差。例如,RELR中会存在截距误差和低阶多项式效应的更大权重。不过,RELR误差概率参数有望估计所有特征的最可能测量误差。假设存在最小训练样本,使得截距误差可忽略不计,那么RELR的预测概率可能相对准确。实际上,具有许多独立变量特征的更完整RELR模型,在概率估计中能显著降低误差。
RELR基于杰恩斯的思想,即最可能的推断是在所有已知约束条件下的最大熵解。这种基于数据的证据推理方法自玻尔兹曼以来已成功应用于科学推断。与标准逻辑回归一样,RELR的约束最大熵解与最大似然解相同。当将与测量不确定性相关的误差概率约束添加到标准逻辑回归模型时,RELR就能生成最可能的推断。
1.3 RELR的优势体现
由于RELR具有估计误差的能力
超级会员免费看
订阅专栏 解锁全文
548

被折叠的 条评论
为什么被折叠?



