LayoutLM 结合文本和布局的图像文章理解的预训练模型

abstract

在layoutlm出现以前,已经有很多文本层面(NLP)的应用,但却忽视了布局和版式信息,微软提出的layoutlm首次结合了文本和布局信息,从而在文本理解 收据理解 图像文本分类上有较大的提升

document

Model

LayoutLM基于BERT模型

BERT--TRANSFORMER--ATTENTION--ENCODER(DECODER)

BERT实际上就是使用transformer和内部的attention机制 用来搞理解 QA任务。

在此基础上 layoutml加入了两个输入

  • 2-D Position Embedding

x0 y0 x1 y1 左上 和 右下

  • Image Embedding

利用图像特征 并与文本要对齐

整个过程,先将position embedding和BERT中的text embedding相加 做预训练

微调部分 输出layoutlm embedding 再加上 image embedding

结果:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值