逻辑回归与马尔可夫模型的原理及实现
1. 逻辑回归的关键软件组件
逻辑回归的训练依赖于高斯 - 牛顿或列文伯格 - 马夸尔特非线性最小二乘法优化器,这些优化器封装在 Apache Commons Math 库中。训练过程由 train 方法执行,同时需要处理该库可能抛出的多种异常,如 ConvergenceException 、 DimensionMismatchException 等。
1.1 训练步骤
训练方法 train 的实现依赖于以下五个步骤:
1. 选择并配置最小二乘法优化器。
2. 定义逻辑函数及其雅可比矩阵。
3. 指定收敛和退出条件。
4. 使用最小二乘法问题构建器计算残差。
5. 运行优化器。
1.2 训练工作流
graph LR
A[Configure Least Squares minimizer]:::process --> B[Define logit & its Jacobian]:::process
B --> C[Define the exit conditions]:::process
C --> D[Build least squares problem]:::process
D --> E[Execute minimization]:::process
classDef process fil
超级会员免费看
订阅专栏 解锁全文
3531

被折叠的 条评论
为什么被折叠?



