依存句法分析—A Fast and Accurate Dependency Parser using Neural Networks

本文介绍了一种使用神经网络进行依存句法分析的方法,通过transition-based贪心模型解决传统方法的不足,提高准确率并加快速度。尽管只预测了LEFT-ARC, RIGHT-ARC, SHIFT中的转换,未预测依赖关系标签,但有助于理解特征处理和模型过程。" 133150032,20038014,Cadence Allegro:网络环路报告的生成与导出,"['PCB设计', '电路分析', '信号处理', 'Allegro软件', '电子工程']

一、问题描述

这是一篇使用神经网络来做依存句法分析的经典文章,传统的依存句法分析特征向量稀疏,特征向量泛化能力差,特征计算消耗大,用神经网络做transition-based贪心模型可以缓解上述问题,准确率提高,速度变快。由于源代码是java写的,所以本人看了用tensorflow改写的代码,但是该代码存在一些问题,只预测是LEFT-ARC,RIGHT-ARC,SHIFT中的一种(即三分类),但没有预测ARC是哪种依赖关系(label),也就是只预测unlabeled attachment scores(UAS),不能预测labeled attachment scores(LAS),但是有助于特征处理以及整个模型过程的理解,看不懂论文和博客的建议看一下代码。

二、transition-based dependency parser

首先每一个决策过程都是基于当前的状态(configuration)做的决策(transition),做好transition后更新configuration进入下一步决策过程中,做决策时采用贪心算法哦,就是每一步都选择当前认为最好的transition就行,这样只损失了一丢丢准确率,换来了速度的大幅度提升。

configurationc=\left ( s, b, A \right )s是一个栈(stack),b为缓存队列(buffer),A为当前已经画好的依赖弧线集合(dependency arcs),假设一个句子为w_{1},w_{2},\cdots ,w_{n}w_{n}为句子中的单词哦,初始configuration为s=\left [ ROOT \right ]b=\left [w_{1},w_{2},\cdots ,w_{n} \right ]A=\varnothing,如果一个configuration的buffer是空的,且s=\left [ ROOT \right ],则这是最后一个configuration,即终点状态哦,即结束整个决策过程了哦。

transition:有三种,LEFT-ARC,RIGHT-ARC,SHIFT。下面详细介绍,先用S_{i}代表stack的第几个top元素(注意栈的先进后出哦,是按出的顺序算第几个的),用b_{i}对应buffer中的第几个元素(队列先进先出,是按出的顺序算第几个的),则

             LEFT-ARC\left ( l \right ):当stack中元素个数大于等于2时,添加一个dependency arc为S_{1}\rightarrow S_{2},且该arc对应的依赖关系(label)为l,然后将S_{2}从stack中移除。

             RIGHT-ARC\left ( l \right ):当stack中元素个数大于等于2时,添加一个dependency arc为S_{2}\rightarrow S_{1},且该arc对应的依赖关系为

树突在人工神经网络中能赋予其准确、稳健和参数高效的学习能力,主要体现在以下几个方面。 从准确学习能力来看,树突可以通过非线性处理增强网络对复杂模式的捕捉能力。树突具有非线性的整合特性,能够对输入信号进行复杂的加权和非线性变换,这使得网络可以更精准地拟合复杂的函数。例如,在处理图像识别任务时,树突的非线性整合可以帮助网络更好地区分不同物体的特征,提高识别的准确性。 在稳健学习能力方面,树突能够增强网络对噪声和干扰的抵抗能力。树突的多分支结构可以对输入信号进行分布式处理,当部分输入受到噪声干扰时,其他分支的正常输入仍能保证网络的稳定输出。比如在语音识别中,即使输入的语音信号存在一定的背景噪声,树突的分布式处理特性可以使网络依然能够准确识别语音内容。 对于参数高效学习能力,树突的引入可以减少网络所需的参数数量。树突的局部计算特性使得网络可以在局部区域进行高效的信息处理,避免了传统神经网络中大量全局参数的使用。这不仅降低了网络的计算复杂度,还减少了过拟合的风险。例如在自然语言处理任务中,使用带有树突的神经网络可以在较少参数的情况下实现较好的语言模型效果。 ```python # 以下是一个简单的带有树突模拟的神经网络示例 import numpy as np # 模拟树突的非线性函数 def dendritic_nonlinearity(x): return np.tanh(x) # 简单的神经网络层带有树突模拟 class DendriticNeuralLayer: def __init__(self, input_size, output_size): self.weights = np.random.randn(input_size, output_size) self.bias = np.random.randn(output_size) def forward(self, x): # 树突的非线性处理 dendrite_output = dendritic_nonlinearity(np.dot(x, self.weights) + self.bias) return dendrite_output # 示例使用 input_size = 10 output_size = 5 layer = DendriticNeuralLayer(input_size, output_size) input_data = np.random.randn(1, input_size) output = layer.forward(input_data) print(output) ```
评论 5
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值