论文笔记2:Combining Lexical, Syntactic, and Semantic Features with Maximum Entropy Models for Extracting

这篇2004年的论文探讨了如何结合词汇、句法和语义特征,利用最大熵模型来提升语义关系抽取的性能。在ACE评估中表现出色,通过在PennTree Bank上训练的统计解析器提取语法特征,解决了传统方法基于语法解析树的局限。虽然召回率较低,但展示了在未标注数据上的潜力。

这篇论文发表于2004年,属于比较早期的论文,主要解决提取实体之间的语义关系问题。

一、文章要解决的问题

解决实体之间的语义关系问题,在the Automatic Content Extraction (ACE) evaluation中获得了非常好的结果。

二、文章使用的方法(亮点、创新点)

解决传统方法主要基于语法解析树,增强语法解析树(Miller et al., 2000 )问题。

  • 使用最大熵模型,将来自文本的各种词汇、句法和语义特征结合在一起,用于语义关系抽取。
  • 证明使用大量信息特征可以提高召回率和F值,并且此方法可以很容易从多个数据语料中扩展以包含更多特征。

  • 此论文仅对显式关系进行建模,因为实体间的隐藏关系缺少标准的标注依据。

  • 此论文仅对子类型关系进行建模
  • 将抽取任务视为49类的分类任务
  • 从句法分析树和使用最大熵模型在PennTree Bank上训练的统计解析器计算出来的依赖树中提取所有的语法特征
  • 实验结果中,评价指标包括P,R,F 和ACE value。ACE value可以参见这篇论文(ACE, 2004)

三、文章使用方法的优缺点

  1. 还是基于统计模型,加入了文本特征
  2. 相比很高的精确度(也不是很高,但在当时属于很好得结果),很低的召回率
  3. 以前的抽取研究都致力于语法解析树,此篇论文提出的方法可以很好的解决大部分问题
  4. 不过分依赖解析树提取得特征,即使使用很少的词汇特征,也可以获得很高得精确度,并用于标注未标注得数据

四、参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值