目录
- 一、信息论的缘起与核心问题
- 二、熵(Entropy):不确定性的度量
- 三、条件熵(Conditional Entropy):新信息到来后,旧问题的不确定性
- 四、互信息(Mutual Information):关联程度的衡量
- 五、KL 散度(KL Divergence):衡量分布差异
- 六、核心概念间的联系与应用小结
- 七、一个机器学习中的完整示例(逻辑回归)
- 八、后记:从信息论走向更广阔的AI世界
在数据驱动的浪潮席卷全球,人工智能模型日益复杂的今天,一门略显“古典”的学科——信息论(Information Theory),正以前所未有的方式焕发新生。由“信息论之父”克劳德·香农(Claude Shannon)奠定的这套理论,最初旨在解决通信效率问题,如今却已深深渗透到机器学习的骨髓之中。从我们习以为常的交叉熵损失函