- 博客(2)
- 收藏
- 关注
原创 【BERT】详解BERT
BERT,全称Bidirectional Encoder Representation of Transformer,首次提出于《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》一文中。简单来说,BERT是使用了Transformer的encoder(即编码器)部分,因此也可以认为BERT就是Transformer的encoder部分。
2024-05-25 09:20:33
775
4
原创 关于Python中np.linalg.norm()的一个小细节
res=np.linalg.norm(x)当参数axis如果是None,那么返回的res是矩阵范数还是向量范数,会根据传入x的是几维自动变化,一维就是向量范数,二维就是矩阵范数
2021-10-15 17:07:50
502
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人