全连接层和卷积层最终应用在网络上的不同之处

本文阐述了全连接层中predict阶段对inputshape的一致性要求,以及卷积层灵活性及其对预测效果的影响。重点强调了训练和预测阶段输入形状调整的注意事项。

全连接层:predict的input shape必须与train时的input shape一致
卷积层:predict的input shape可以与train时的input shape不一致,可更改,但是相差较大的话,预测效果会打折扣。因为train得到的特征是固定的。

### 全连接层卷积层的区别及应用场景 #### 基本定义 全连接层(Fully Connected Layer, FC)是指每一层中的每一个神经元都会与其他层的所有神经元相连,形成密集的连接关系[^2]。而卷积层(Convolutional Layer, Conv)则是通过局部感受野共享权重的方式提取数据的空间特征[^3]。 #### 参数数量对比 在全连接层中,由于每个神经元都需要与前一层的所有神经元建立连接,因此其参数量会随着输入维度的增长呈平方级增加。相比之下,卷积层利用滑动窗口机制以及权值共享特性,在处理高维数据时能够显著减少模型复杂度内存消耗[^4]。 #### 数据依赖性分析 对于像图片这样的二维或多维结构化数据来说,相邻像素之间往往存在较强的相关性模式重复现象;此时采用具有空间不变性的卷积操作更加适合捕捉这些规律并保持原始信息不被破坏。然而当面对无特定拓扑关联的一般向量型样本集时,则更适合运用灵活表达能力强但缺乏先验约束条件下的传统FC架构来建模潜在映射函数关系[^1]。 #### 应用场景划分 - **卷积层适用场合** - 图像分类、目标检测等领域内的任务因为涉及到大量视觉样式识别需求所以广泛采用了基于CNN的设计思路; - 自然语言处理(NLP)当中也有部分方法尝试模仿文本序列间短距离依存特性的做法引入一维卷积运算单元替代LSTM/GRU等循环组件实现高效嵌入表示学习过程。 - **全连接层主要用途** - 当问题本身并不具备明显的几何分布属性或者难以预先设定合理的kernel size stride padding hyperparameters组合方案的时候,默认选择标准MLP作为默认解决方案不失为明智之举; - 在经过若干轮预训练后的高层抽象特征抽取阶段之后再接入几组简单的Dense Block完成最终决策判断工作也是常见套路之一。 ```python import tensorflow as tf from tensorflow.keras import layers model = tf.keras.Sequential([ layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)), # 卷积层示例 layers.MaxPooling2D((2, 2)), # 池化层 layers.Flatten(), # 展平操作 layers.Dense(64, activation='relu'), # 全连接层示例 layers.Dense(10, activation='softmax') # 输出层 ]) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值