该论文是发表于2016年。还算是比较早的论文了。虽然现在有更好的模型。比如BERT横空出世,相信未来也会源源不断的大牛来提出更多新的模型。但是读读总还是会收获的。之前自己也用BERT来进行中文NER的识别,代码放到了 https://github.com/xuanzebi/BERT-CH-NER 欢迎Star啊哈哈。
论文网络模型图
论文解读
论文处理的是英文。是在CONLL2003 的数据集上针对NER任务提出的一项新模型。
主要是将字符级别的特征经过CNN和词级别的特征进行concat.之后经过双向LSTM进行NER预测。
这样能够更好的利用到前缀后缀之类的字符级特征。而且可以减少人工构造特征的工作。
自己在理解清字符级别的维度和词级别的维度如何concat上当时绕进去了,所以总结一下最后如何保持维度一致进行concat的。
seq_len = len(句子长度按词划分) word_emb = embedding(词) = 100维 词向量embedding char_dim = 52个。 将字符扩展到每个词含有52个.不够的padding