
数学基础
文章平均质量分 69
程序之巅
仰天大笑出门去,我辈岂是蓬蒿人
展开
-
深入理解Pytorch负对数似然函数(torch.nn.NLLLoss)和交叉熵损失函数(torch.nn.CrossEntropyLoss)
参考资料:极大似然估计 —— Maximum Likelihood EstimationNegative log likelihood explained深度理解机器学习中常见损失函数交叉熵、相对熵和负对数似然的理解原创 2021-09-22 15:10:32 · 4190 阅读 · 3 评论 -
深入理解激活函数之softmax
本篇文章将解释 softmax 函数,它与负对数似然(negative log-likelihood)的关系以及它在执行反向传播算法时的导数。什么是 Softmax 函数softmax 函数首先是一个函数,它将含有K 个实值的向量转换为 K 个总和为1的实值向量。向量的K个输入值可以是正数、负数、零或大于 1,但 softmax 能将它们转换为介于0 和 1,因此它们可以被解释为概率。如果其中一个输入较小或为负,则softmax将其变成小概率,如果输入较大,则将其变成大概率,但始终保持在0和1之间。s原创 2021-09-21 17:45:44 · 10199 阅读 · 2 评论 -
基本初等函数导数以及推导过程
参考文档:https://zhuanlan.zhihu.com/p/89843248原创 2021-09-14 06:51:32 · 1204 阅读 · 0 评论