文章目录
前言
前文表述过语言的意义隐藏在文字的背后,蕴藏在形成词的特定组合意图和情感中。
在感知机逐渐发展为前馈网络(多层感知机)的过程中,原本设计神经网络的最初目的是作为一个学习量化输入的机器,而神经网络已然由处理分类、回归问题演变到生成新文本的任务了。
一、卷积神经网络是什么?
神经网络是什么?
先解决这个问题:就像是阿凡达丛林中各种轴突树突之间的关系,经过训练过程可以不断优化得到训练结果的参数集合。
卷积神经网络:顾名思义,多了一个卷积,而卷积是什么?可以称为滤波器、卷积核、特征检测器。可以理解为一直卷一直求积,这也是卷积核计算的原理,至于这种原理可以在基础课本中看到具体的运行机制。
二、卷积神经网络的细节。
1.构建块
被卷积的原始输入,我理解的。
2.步长
卷积核一次移动的距离
3.卷积核的组成
权重+激活函数(RELU)
4.填充
某一向量过长或者过短导致矩阵长短不一,故需要填充null或者0
5.学习
权重不断更新的过程
分类器根据各个输入数据,从期望标签中获得一定的误差值,并通过激活函数将输入数据反向传播给卷积核。对于误差值的反响传播,计算误差对输入权重的导数。
6.窗口
如何滑动窗口对模型本身没有影响,保证按照与窗口在输入上的位置相同的方式重构输出即可。

本文深入探讨卷积神经网络(CNN)的原理,包括其构建块、步长、卷积核、填充等关键细节,并详细阐述CNN的训练流程,涉及数据准备、模型构建、优化策略等。同时,文章指出CNN在自然语言处理(NLP)任务中的高效表现,以及防止过拟合的技巧,如dropout。作者计划通过进一步阅读深化对CNN实验成果的理解。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



