关系提取与关系分类——论文阅读列表

这篇博客总结了关系提取与关系分类的研究进展,包括已阅读的多个使用深度学习方法的论文,如Convolutional Deep Neural Network、Sentence-Level Attention、Entity Descriptions等。还探讨了Bag of Tricks在文本分类中的作用, Hierarchical Softmax如何加速训练,以及Reinforcement Learning在Learning Structured Representation中的应用。待阅读列表包含了一系列与注意力机制、强化学习和深度学习在关系提取中的应用相关的论文。

已阅读

  1. Relation Classification via Convolutional Deep Neural Network

  2. Structure Regularized Neural Network for Entity Relation Classification for Chinese Literature Text

  3. Distant Supervision for Relation Extraction with Sentence-Level Attention and Entity Descriptions
  4. Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks

  5. Bag of Tricks for Efficient Text Classification

    1. bag of word作为特征,本身的信息量是比较充足的, 但是线性分类器无法共享特征与类别之间的参数(个人理解为无法充分考虑各个特征之间的组合对分类的影响)。而多次神经网络可以。
    2. 使用n-gram+bag of word来进行文本分类,其中bag of word提供语义信息,n-gram提供顺序上的信息。
    3. 使用Hierarchical softmax来加速求解目标类别的概率,当类别非常多的时候能够大大加快训练速度。假如有k种label,n维特征,传统的softmax的复杂度为O(kn),Hierarchical softmax的复杂度为O(nlog(k))。可见当k很大的时候,加速效果会非常显著。

    推荐博客:https://www.cnblogs.com/DjangoBlog/p/7903690.html

  6. Learning Structured Representation for Text Classification
    via Reinforcement Learning

    1. 提出Information Distilled LSTM (ID-LSTM),该模型的目标是选出一句话中,对目标类别最有用的单词,从而达到提升分类性能的目的。这里作者加了正则项 γL/L γ L ′ / L ,其中 L L ′ 是删掉的单词数量。正则项的目的是鼓励强化学习网络多删除无用单词。
    2. 提出Hierarchically Structured LSTM (HS-LSTM),该模型的目标是对一句话的单词进行短语划分,使用LSTM为划分后的每个短语生成特征表示 hi h i ,然后再将 hi h i 序列作为LSTM的输入来预测label。

待阅读

  1. Attention Is All You Need

  2. Policy Gradient Methods for Reinforcement Learning with Function Approximation

  3. Policy Gradient Methods for Reinforcement Learning with Function
    Approximation and Action-Dependent Baselines

  4. Relation classification via convolutional deep neural network

  5. Multi-level Attention-Based Neural Networks for Distant Supervised Relation Extraction

  6. Relation Classification via Multi-Level Attention CNNs

  7. Weakly-supervised Relation Extraction by
    Pattern-enhanced Embedding Learning

  8. End-to-End Neural Relation Extraction with Global Optimization

  9. Adversarial training for relation extraction

评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值