损失函数总结(七):MarginRankingLoss、HingeEmbeddingLoss
1 引言
在前面的文章中已经介绍了介绍了一系列损失函数 (L1Loss、MSELoss、BCELoss、CrossEntropyLoss、NLLLoss、CTCLoss、PoissonNLLLoss、GaussianNLLLoss、KLDivLoss、BCEWithLogitsLoss)。在这篇文章中,会接着上文提到的众多损失函数继续进行介绍,给大家带来更多不常见的损失函数的介绍。这里放一张损失函数的机理图:

2 损失函数
2.1 MarginRankingLoss
MarginRankingLoss 是一种用于对比学习(Siamese网络)中的损失函数,通常用于训练模型来学习如何区分两个样本或实例。这种损失函数通常用于度量两个样本之间的相似性或距离,以便在训练中推动模型使相似样本更接近,而不相似样本更远<
本文深入探讨了两种深度学习中的损失函数——MarginRankingLoss和HingeEmbeddingLoss。MarginRankingLoss常用于Siamese网络,通过比较样本对来优化模型。HingeEmbeddingLoss则适用于训练具有嵌入向量的模型,常见于对比学习任务。文章提供了损失函数的数学公式及PyTorch代码实现,并总结了它们在实际应用中的价值。
订阅专栏 解锁全文
1669

被折叠的 条评论
为什么被折叠?



