神经网络整体架构及细节(详细简单)

本文详细介绍了神经网络的基本架构,包括输入层、隐藏层和输出层的功能及相互连接方式,并解释了神经元的作用以及如何通过全连接层和非线性激活函数进行数据处理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言:

神经网络的来源已经有大部分博主有详细的讲过了,但我发现整体框架中的细节很多博主都是大体讲了讲,所以作者今天想来好好详细的讲讲框架中的细节。

一:神经网络构架大体介绍

如下图所示:

这张图很生动的展现了我们神经网络的基本框架,我们会发现只要理解了这张图,就掌握了神经网络的大部分内容。

我们在图中不难看出整体架构包括层次结构,神经元,全连接,非线性四个部分,所以我们就依据它们来展开讲解。

二:详细介绍

(1)层次结构

在神经网络中神经网络的我们一般分成三个部分:

1:输入层(input layer)

2:隐藏层(hidden layer)

3:输出层(output layer)

ps:要注意的是,中间的隐藏层可以由多层。

(2)神经元

还是把上图给搬下来如下图:

我们可以看到图中每个层次中都有许多圆圆的球似的东西,这个东西就是在神经网络中的神经元,每一种层次中的神经元中的含量不太一样

在输入层中的每一个神经元里面是你输入原始数据(一般称为X)的不同特征,比如x为一张图片,这张图片的像素是32*32*3,其中的每一个像素都是它的特征吧,所以有3072个特征对应的输入层神经元个数就是3072个,这些特征以矩阵的形式进行输入的。我们举个例子比如我们的输入矩阵为‘1*3072’(第一维的数字表示一个batch(batch指的是每次训练输入多少个数据)中有多少个输入;第二维数字中的就是每一个输入有多少特征。)

在隐藏层中的每一层神经元表示对x进行一次更新的数据,而每层有几个神经元(比如图中hidden1层中有四个神经元)表示将你的输入数据的特征扩展到几个(比如图中就是四个),就比如你的输入三个特征分别为年龄,体重,身高,而图中hidden1层中第一个神经元中经过变换可以变成这样‘年龄*0.1+体重*0.4+身高*0.5’,而第二个神经元可以表示成‘年龄*0.2+体重*0.5+身高*0.3’,每一层中的神经元都可以有不同的表示形式。

在输出层中的的神经元个数主要取决于你想要让神经网络干什么,比如你想让它做一个10分类问题,输出层的矩阵就可以是'1*10'的矩阵(第一维表示的与输入层表示数字相同,后面10就是10种分类)。

(3)全连接

我们依旧照搬原来的图:

我们看到的每一层和下一层中间都有灰色的线,这些线就被称为全连接(因为你看上一层中每个神经元都连接着下一层中的所有神经元),而这些线我们也可以用一个矩阵表示,这个矩阵我们通常称为‘权重矩阵’,用大写的W来表示(是后续我们需要更新的参数)。权重矩阵W的维数主要靠的是上一层进来数据的输入数据维数和下一层需要输入的维数,可以简单理解为上有一层有几个神经元和下一层有几个神经元,例如图中input layer中有3个神经元,而hidden1 layer中有4个神经元,中的W的维度就为‘3*4’,以此类推。(主要是因为我们全连接层的形式是矩阵运算形式,需要满足矩阵乘法的运算法则)

(4):非线性

在每层运算做完后,我们得数据不能直接输入到下一层计算中,需要添加一些非线性函数(大部分也可以叫做激活函数),常用的激活函数有relu,sigmoid,tanh(读者可以去查查看),就比如说在input layer 在hidden1 layer计算完后不能将数据直接传如hidden2 layer在这之间需要添加一个激活函数。

三:参考视频

1:其中的p5与p6:

不愧是计算机博士唐宇迪居然半天教会了我大学4年没学会的深度学习经典算法解析入门到实战课程,看不懂你打我!!!_哔哩哔哩_bilibili

<think>好的,用户想要查找BP神经网络结构图示例图解。首先,我需要确认用户的需求是了解BP神经网络的结构,可能需要包括输入层、隐藏层和输出层的图示,以及各层之间的连接和反馈机制。接下来,我应该回忆BP神经网络的基本结构,确保结构图的准确性。 根据已有的知识,BP神经网络通常是多层前馈网络,包括输入层、至少一个隐藏层和输出层。信号向前传播,误差反向传播。需要确认是否有标准的结构图示例,或者是否需要自己描述结构。 用户提供的引用中有关于BP神经网络的推导和实验的内容[^4],可能相关的信息,但没有直接提到结构图。可能需要根据这些引用中的描述来构造结构图。 接下来,需要考虑如何用文字清晰描述结构图,可能包括各层节点数、连接权重、激活函数的位置等。同时,要确保使用正确的LaTeX格式,如行内公式用$...$,独立公式用$$...$$,并正确分段。 可能需要分步骤描述结构图:输入层、隐藏层、输出层,以及反向传播的过程。此外,用户可能需要了解各层的作用,如输入层接收数据,隐藏层处理特征,输出层产生结果,以及如何通过误差反向调整权重。 另外,用户可能需要知道BP神经网络的典型应用,如分类回归等,但当前问题主要集中在结构图。需要确保回答中引用相关文献,如引用[4]中提到的Softmax函数在输出层的应用,可以指出这一点。 最后,生成的相关问题需要围绕结构图展开,如层数选择、激活函数的作用、训练步骤和应用场景等。确保问题有助于用户进一步理解BP神经网络的结构和功能。 总结步骤: 1. 描述BP神经网络的基本结构,包括各层及其作用。 2. 提供结构图的文字示例,可能用节点和箭头表示连接。 3. 解释前向传播和反向传播过程。 4. 引用相关文献支持描述,如激活函数的使用。 5. 生成相关问题,帮助用户深入理解结构图和相关概念。</think>### BP神经网络结构图说明 BP神经网络通常由输入层、隐藏层(可多层)和输出层构成,结构示例如下: ``` 输入层 隐藏层 输出层 O ---------- O ----------- O | \ / | \ / | | \ / | \ / | O ---\--/--- O --\-----/---O | \/ | \ / | | /\ | \ / | O ---/--\--- O -----X------O | / \ | \ | | / \ | \| O ---------- O ----------- O ``` **各层功能说明:** 1. **输入层**:接收外部数据,节点数=输入特征维度。例如识别手写数字时,若图像为$28×28$像素,则输入层有784个节点[^4]。 2. **隐藏层**:进行非线性变换,节点数可调。常用Sigmoid、ReLU等激活函数,如: $$ \sigma(z) = \frac{1}{1+e^{-z}} $$ 3. **输出层**:生成最终结果,节点数=分类类别数(分类任务)或1个节点(回归任务)。若使用Softmax函数,输出会转换为概率分布[^4]。 **前向传播过程**: 输入数据逐层计算,第$l$层第$j$个节点的输出为: $$ a_j^{(l)} = \sigma\left( \sum_{i} w_{ji}^{(l)} a_i^{(l-1)} + b_j^{(l)} \right) $$ 其中$w_{ji}$为权重,$b_j$为偏置。 **反向传播过程**: 通过计算损失函数$L$对权重的梯度$\frac{\partial L}{\partial w_{ji}}$,从输出层到输入层逐层调整参数[^4]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小林学编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值