动手学深度学习pytorch
文章平均质量分 90
记录深度学习的过程
星辰燎原
只争朝夕,不负韶华
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
动手学深度学习V2每日笔记(使用块的网络VGG)
本文主要参考沐神的视频教程文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-08-07 11:32:30 · 519 阅读 · 0 评论 -
动手学深度学习V2每日笔记(深度卷积神经网络AlexNet)
当图片过大的时候,通常会将短边压缩到要求的宽度然后再冲里面随机扣除符合要求的图片去做训练或者测试。原创 2024-08-06 15:46:40 · 896 阅读 · 0 评论 -
动手学深度学习V2每日笔记(经典卷积神经网络LeNet)
本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1t44y1r7ct/spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=c7bfc6ce0ea0cbe43aa288ba2713e56d文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-08-06 09:41:33 · 525 阅读 · 0 评论 -
动手学深度学习V2每日笔记(池化层)
本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1EV411j7nX/spm_id_from=333.999.0.0&vd_source=c7bfc6ce0ea0cbe43aa288ba2713e56d文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-08-04 19:23:08 · 457 阅读 · 0 评论 -
动手学深度学习V2每日笔记(卷积层)
本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1L64y1m7Nh/p=2&spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=c7bfc6ce0ea0cbe43aa288ba2713e56d文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-08-03 19:41:35 · 1099 阅读 · 0 评论 -
动手学深度学习V2每日笔记(PyTorch神经网络基础)
nn.Module是PyTorch中神经网络的基本构建块。它是所有神经网络模块的基类,包含了神经网络中所有层的定义以及前向传播的方法。通过继承nn.Module,我们可以轻松地构建自己的神经网络模型。nn.Module的作用封装网络层:nn.Module封装了网络的各层及其参数,这使得我们可以像操作对象一样方便地操作神经网络。管理参数:nn.Module自动管理所有子模块的参数。通过调用parameters()方法,可以很方便地获取模型的所有参数。原创 2024-08-01 15:50:17 · 1045 阅读 · 0 评论 -
动手学深度学习V2每日笔记(模型初始化和激活函数)
本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1u64y1i75ap=2&vd_source=c7bfc6ce0ea0cbe43aa288ba2713e56d文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-07-29 17:59:47 · 820 阅读 · 0 评论 -
动手学深度学习V2每日笔记(模型选择+过拟合和欠拟合)
本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1K64y1Q7wu/?文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-07-25 20:26:32 · 951 阅读 · 0 评论 -
动手学深度学习V2每日笔记(权重衰退+Dropout)
l2l_2l2nn.Dropout 是 PyTorch 中的一种正则化技术,用于防止神经网络中的过拟合。它通过在训练过程中随机将一部分神经元的输出设为 0 来实现这一点。这种做法可以迫使网络的其余部分学习更稳健的特征,因为它不能依赖于某些特定的神经元。p:指定每个神经元在训练时被丢弃的概率。取值范围是 [0, 1),通常设为 0.5。训练和评估模式Dropout 层在训练和评估(推理)模式下表现不同:训练模式:在训练模式下,Dropout 会按照指定的概率 p 随机丢弃神经元的输出。原创 2024-07-28 21:25:20 · 972 阅读 · 0 评论 -
动手学深度学习V2每日笔记(多层感知机)
感知机原创 2024-07-18 22:43:59 · 1001 阅读 · 0 评论 -
动手学深度学习V2每日笔记(softmax回归_02)
本文主要参考沐神的视频教程 https://www.bilibili.com/video/BV1K64y1Q7wu/?文档教程 https://zh-v2.d2l.ai/本文的主要内容对沐神提供的代码中个人不太理解的内容进行笔记记录,内容不会特别严谨仅供参考。原创 2024-07-17 23:15:21 · 722 阅读 · 0 评论 -
动手学深度学习V2每日笔记(softmax回归_01)
softmax回归原创 2024-07-14 22:33:35 · 914 阅读 · 0 评论 -
动手学深度学习V2每日笔记(线性回归 + 基础优化算法)_2
线性回归的简介实现原创 2024-07-13 11:26:53 · 1188 阅读 · 0 评论 -
动手学深度学习V2每日笔记(线性回归 + 基础优化算法)
沐神_08 线性回归 + 基础优化算法【动手学深度学习v2】原创 2024-07-12 21:06:22 · 1102 阅读 · 0 评论
分享