- 博客(1)
- 收藏
- 关注
转载 Transformer与Bert的区别与联系
Transformer是一种基于注意力机制的神经网络架构,由Vaswani等人在2017年提出,摒弃了传统的循环和卷积结构,依赖自注意力机制和并行化处理,显著提升了训练效率和效果。它主要用于序列到序列任务,如机器翻译、文本生成等。BERT则是Google在2018年提出的预训练语言模型,仅使用Transformer的编码器部分,通过掩码语言模型和下一句预测任务进行双向训练,生成上下文相关的词向量表示。BERT通过预训练和微调,广泛应用于问答、文本分类、命名实体识别等NLP任务。
2025-05-23 11:30:37
109
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅