自然语言处理实战——卷积神经网络(CNN)

本文深入探讨卷积神经网络(CNN)的原理,包括其构建块、步长、卷积核、填充等关键细节,并详细阐述CNN的训练流程,涉及数据准备、模型构建、优化策略等。同时,文章指出CNN在自然语言处理(NLP)任务中的高效表现,以及防止过拟合的技巧,如dropout。作者计划通过进一步阅读深化对CNN实验成果的理解。


前言

前文表述过语言的意义隐藏在文字的背后,蕴藏在形成词的特定组合意图和情感中。
在感知机逐渐发展为前馈网络(多层感知机)的过程中,原本设计神经网络的最初目的是作为一个学习量化输入的机器,而神经网络已然由处理分类、回归问题演变到生成新文本的任务了。

一、卷积神经网络是什么?

神经网络是什么?
先解决这个问题:就像是阿凡达丛林中各种轴突树突之间的关系,经过训练过程可以不断优化得到训练结果的参数集合。
卷积神经网络:顾名思义,多了一个卷积,而卷积是什么?可以称为滤波器、卷积核、特征检测器。可以理解为一直卷一直求积,这也是卷积核计算的原理,至于这种原理可以在基础课本中看到具体的运行机制。

二、卷积神经网络的细节。

1.构建块

被卷积的原始输入,我理解的。

2.步长

卷积核一次移动的距离

3.卷积核的组成

权重+激活函数(RELU)

4.填充

某一向量过长或者过短导致矩阵长短不一,故需要填充null或者0

5.学习

权重不断更新的过程
分类器根据各个输入数据,从期望标签中获得一定的误差值,并通过激活函数将输入数据反向传播给卷积核。对于误差值的反响传播,计算误差对输入权重的导数。

6.窗口

如何滑动窗口对模型本身没有影响,保证按照与窗口在输入上的位置相同的方式重构输出即可。

三、卷积神经网络的流程

1.准备数据

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值