深入学习入门--总体介绍+基本概念

本文概述了深度学习入门所需的基本概念,包括神经元、权重、偏差和激活函数。详细介绍了sigmoid和ReLU激活函数,以及神经网络的结构如输入、输出、隐藏层和正向传播。还涉及成本/损失函数、梯度下降、学习率、反向传播、批次、周期和丢弃等优化技术。此外,解释了卷积神经网络中滤波器的作用,以及深度学习在分类、回归和生成问题的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度学习(Deep Learning)入门必备基本概念(这是一个超链接)

  1. 神经网络(Neural Network)基础
    1.1 神经元(Neuron)
    1.2 权重(weights)
    1.3 偏差(bias)
    1.4 激活函数(Activation function)
  2. 常用的激活函数
    2.1 sigmoid-用于隐层神经元的输出
    2.2 ReLu(整流线型单位) - 用于隐层神经元输出
  3. 神经网络(Neural Network)
    3.1 输入,输出,隐藏层
    3.2 MLP(多层传感器)
    3.3 正向传播(Forword Propagation)
    3.4 成本/损失函数(Cost Function)
    3.5 梯度下降
    3.6 学习率(Learining rate)
    3.7 反向传播(Back Propagation)
    3.8 批次(Batches)
    3.9 周期(Epoches)
    3.10 丢弃(Dropout)
  4. 卷积神经网络(CNN)
    4.1 滤波器(filter)

深度学习的基本概念

神经元

每个神经元都是由输入、权重、偏置以及激励函数组成的。
在这里插入图片描述

卷积核

卷积核是一种矩阵的形式,一般的卷积核大小为3*3,卷积核计算的过程类似于边界算子的计算过程, 将卷积核与图片中的像素点对应相乘,再相加,将得到的像素值作为该像素点的值。
在这里插入图片描述

分类问题

分类问题是指预测的目标值为离散值

在这里插入图片描述

回归问题

回归是指预测的目标值为连续值

在这里插入图片描述

生成问题

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值