
PyTorch
文章平均质量分 94
PyTorch专栏是一个专注于PyTorch的在线知识库。这个专栏旨在为机器学习爱好者提供一个全面丰富的实战教学
鸽芷咕
致力于C/C++领域的优质博客分享 | 用最优质的内容带来最舒适的阅读体验!| 商务合作请联系微信 15171009269
展开
-
【Pytorch】一文快速教你高效使用torch.no_grad()
在深度学习模型的训练过程中,计算梯度是一个必不可少的步骤。然而,对于某些操作,我们可能不需要计算梯度,比如在模型评估或推理阶段。在这种情况下,使用`torch.no_grad()`可以显著提高代码的运行效率。本文将介绍`torch.no_grad()`的使用方法,并探讨如何在实际应用中发挥其优势。原创 2024-09-22 22:50:28 · 1196 阅读 · 0 评论 -
【PyTorch常用库函数】一文向您详解 with torch.no_grad(): 的高效用法
在训练神经网络时,我们通常需要计算损失函数关于模型参数的梯度,以便通过梯度下降等优化算法更新参数。然而,在评估阶段,我们只关心模型的输出,而不需要更新参数。在这种情况下,使用 `with torch.no_grad():` 上下文管理器可以有效地告诉 PyTorch 不要计算或存储梯度,从而节省计算资源,加快评估速度。原创 2024-08-31 12:59:20 · 712 阅读 · 0 评论 -
【PyTorch常用库函数】一文教你快速上手torch.abs()函数:获取张量的绝对值
在深度学习领域,PyTorch是一个非常受欢迎的框架,它提供了丰富的库函数来支持各种复杂的计算任务。今天,我们将深入探讨PyTorch中的一个基础但非常重要的函数:`torch.abs()`。这个函数用于计算张量(Tensor)中每个元素的绝对值。在数学中,绝对值表示一个数与零之间的距离,不考虑数的正负。在PyTorch中,`torch.abs()`函数可以应用于标量、向量、矩阵以及更高维的张量。原创 2024-08-31 12:57:03 · 698 阅读 · 0 评论