讲解平方损失函数与交叉熵损失函数 适用的情况以及 解释了原因。
特别是回归问题为什么不能使用 交叉熵损失函数。
博客链接:https://blog.youkuaiyun.com/m_buddy/article/details/80224409
平方损失函数与交叉熵损失函数
交叉熵与均方差 https://blog.youkuaiyun.com/dawnranger/article/details/78031793
这里的categorical cross-entropy其实就是 log 似然损失函数。
机器学习中的损失函数 https://blog.youkuaiyun.com/rosenor1/article/details/52302217
为什么交叉熵可以作为损失函数? https://blog.youkuaiyun.com/iloveyousunna/article/details/79205347
softmax和sigmoid以及SVM https://blog.youkuaiyun.com/qq_35550465/article/details/82704189
对数损失函数是如何度量损失的? https://www.zhihu.com/question/27126057
机器学习中常见的损失函数 https://www.cnblogs.com/houjun/p/8956384.html
以上图片来自: https://blog.youkuaiyun.com/hearthougan/article/details/82706834
softmax 交叉熵损失函数求导: https://www.jianshu.com/p/6e405cecd609
https://blog.youkuaiyun.com/qingyang666/article/details/70245855
https://www.cnblogs.com/klchang/p/9217551.html 对数损失函数(Logarithmic Loss Function)的原理和 Python 实现
用于Multinoulli(多项分布)输出分布的softmax单元 https://blog.youkuaiyun.com/weixin_40516558/article/details/79962674
多项式分布及Softmax回归模型推导 https://blog.youkuaiyun.com/liuyhoo/article/details/81542100