【深度学习】【NLP】NLP课件整理 第一章(1):神经网络简介,pytorch代码+简单项目,pytorch手写数字识别

本文深入介绍了深度学习的基本概念及其与机器学习的区别,详细探讨了人工神经网络的原理和应用。通过PyTorch框架,讲解了张量操作、自动求导、常见优化算法及数据加载方法,最后通过实例展示了如何使用PyTorch实现手写数字识别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

文档:1.1.1 深度学习的介绍.note

  1. 深度学习的概念
  2. 深度学习和机器学习的区别
    2.1 区别1 :特征提取
    2.2 区别2:数据量
  3. 深度学习的应用场景
  4. 常见的深度学习框架

文档:1.1.2 神经网络的介绍.note

  1. 人工神经网络的概念
  2. 神经元的概念
  3. 感知机
  4. 单层神经网络
  5. 多层神经网络
  6. 激活函数
  7. 神经网络示例

文档:1.2.1 Pytorch的安装.note

  1. Pytorch的介绍
  2. Pytorch的版本
  3. Pytorch的安装

文档:1.2.2 Pytorch中数据-张量.note

  1. 张量Tensor
  2. Pytorch中创建张量
  3. Pytorch中tensor的属性
  4. tensor的修改
  5. CUDA Tensor
  6. tensor的常用数学运算
  7. Variable

文档:1.2.3 梯度下降和反向传播.note

  1. 梯度是什么?
  2. 偏导的计算
    2.1 常见的导数计算
    2.2 多元函数求偏导
  3. 反向传播算法
    3.1 计算图和反向传播
    3.2 神经网络中的反向传播

文档:1.2.4 Pytorch自动求导.note

  1. 前向计算
  2. 梯度计算

文档:1.2.5 Pytorch完成线性回归.note

  1. 线性回归实现

文档:1.2.6 Pytorch基础模型组件.note

  1. Pytorch完成模型常用API
    1.1 nn.Module
    1.2 nn.Sequential
    1.3 优化器类
    1.4 损失函数

文档:1.2.7 Pytorch基础模型.note

  1. 使用pytorch模型组件把线性回归完整代码
  2. 在GPU上运行代码
  3. 常见的优化算法介绍
    3.1 梯度下降算法(batch gradient descent BGD)
    3.2 随机梯度下降法 (Stochastic gradient descent SGD)
    3.3 小批量梯度下降 (Mini-batch gradient descent MBGD)
    3.4 动量法(Momentum)
    3.5 AdaGrad
    3.6 RMSProp
    3.7 Adam
    3.8 效果演示:
  4. 深度学习避免过拟合/加速训练
    4.1 Dropout
    4.2 Batch Normalization

文档:1.2.8 Pytorch中的数据加载.note

  1. 模型中使用数据加载器的目的
  2. 数据集类
    2.1 Dataset基类介绍
    2.2 数据加载案例
  3. 迭代数据集
  4. pytorch自带的数据集
    4.1 torchversion.datasets
    4.2 MNIST数据集的介绍

文档:1.2.9 使用Pytorch实现手写数字识别.note

  1. 思路和流程分析
  2. 准备训练集和测试集
    2.1 torchvision.transforms的图形数据处理方法
    2.2 准备MNIST数据集的Dataset和DataLoader
  3. 构建模型
    3.1 激活函数的使用
    3.2 模型中数据的形状(【添加形状变化图形】)
    3.3 模型的损失函数
  4. 模型的训练
  5. 模型的保存和加载
  6. 模型的评估
  7. 完整的代码如下
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值