
pytorch
文章平均质量分 81
李孟聊人工智能
独立开发,Substack和Medium顶级编辑
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
如何使用Optuna在PyTorch中进行超参数优化
首先,我们将导入相关的包,并使用PyTorch创建一个简单的全连接神经网络。该全连接神经网络包含一个隐藏层。为了保证可复现性,我们还设置了一个手动随机种子。SEED = 42return x接下来,我们将设置超参数优化所需的标准组件。我们将执行以下步骤:1.下载FashionMNIST数据集。2.定义超参数搜索空间:我们定义(a)想要优化的超参数,以及(b)允许这些超参数取值的范围。在我们的例子中,我们将选择以下超参数:神经网络隐藏层大小——整数值。学习率——对数分布的浮点值。原创 2024-09-24 04:06:24 · 1480 阅读 · 0 评论 -
PyTorch 开篇
PyTorch 的环境配置也很方便,各种开发版本都能向下兼容,不存在老版本的代码在新版本上无法使用的困扰,而且 PyTorch 跟 NumPy 的风格比较像,能轻易和 Python 生态集成起来,我们只需掌握 NumPy 和基本的深度学习概念即可上手,在网络搭建方面也是快捷又灵活。在这个部分,会结合深度学习模型训练的一系列流程,为你详解自动求导机制、搭建网络、更新模型参数、保存与加载模型、训练过程可视化、分布式训练等等模块,带你具体看看 PyTorch 能给我们提供怎样的帮助。张量(Tensor)原创 2023-03-14 05:00:41 · 826 阅读 · 0 评论