关于bidaf和bert的简要回顾

01简述bidaf

bidaf主要是通过encoding中的charembeding和word embeding 通过lstm构建出contextual embedding部分,然后contextual embedding构建context-to-query和query-to-context的注意力方式,融合query和context的信息,然后将它们之间融合,再通过lstm得到对应的output结果。

参考文章链接:https://towardsdatascience.com/the-definitive-guide-to-bi-directional-attention-flow-d0e96e9e666b

 

02 bert

bert的encoding部分采用mask方式将部分信息遮挡,借用transformer的encoding部分,得到词与词之间不同位置的相互信息,在pre-train的时候引入了两项任务,mlm的任务,就是预测mask的部分,还有nsp任务,nsp是将encoding部分的2组句子拼接在一起,在pre-train的时候预测后一个句子是否为衔接着前一个句子。然后在fine-tuning引入其它模型做别的任务,比如文本分类,翻译,机器阅读理解,实体识别等等。

参考文章链接:

http://jalammar.github.io/illustrated-bert/

http://jalammar.github.io/a-visual-guide-to-using-bert-for-the-first-time/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值