【收藏必备】一文彻底搞懂BERT的MLM机制:数据流与自注意力原理解析

本文详细解析了BERT中Masked Language Model(MLM)的工作机制。MLM通过随机遮住部分词,让模型根据上下文预测被遮词。数据流程包括:输入准备阶段(生成token ids和标签)、Embedding层(包括[MASK]的embedding)、Transformer Encoder层(自注意力机制,被遮词作为Query读取上下文Key/Value)、输出层(预测被遮词)。关键点是被遮词仍生成Query,通过自注意力聚合上下文信息,最终预测原词。

一、MLM 的目标

Masked Language Modeling (MLM) 的目标是在输入句子中随机 Mask 一部分 token,然后让模型根据上下文(前后)预测它们。

例如输入:

The cat sat on [MASK] mat.

目标是让模型输出:

The cat sat on [MASK] mat.                ↑ 预测 "the"

二、数据是怎么流的

我们以 Transformer Encoder(BERT)为例:

1.输入准备阶段

  • 原始句子 → Tokenizer 编码 → token ids
    例如:
[101, 1996, 4937, 1012, 103, 102]

其中 [MASK] 的 ID 是 103

  • 同时保留一份 原始词标签(label)
[-100, -100, -100, -100, 103, -100]

只有被 Mask 的位置保留真实词 id,其它位置是 -100, 这里 -100 的作用是告诉 CrossEntropyLoss这些位置忽略掉,不计算损失。

2.经过 Embedding 层

每个 token id(包括 [MASK])都会被映射成一个向量:

其中:

  • [MASK] 也有自己的 embedding(是一个可训练向量)
  • 它只是一个占位符,不含原词语义。

3.进入 Transformer Encoder 层(Self-Attention)

现在,注意力机制登场:

在这里:

  • 所有 token(包括 [MASK])都会生成自己的 Query、Key、Value
  • 每个位置都能看到整个句子(因为 BERT 是双向的);
  • 所以 [MASK] 位置的 Query 会去关注左右两边的 token;
  • 它无法知道自己是什么词,但能从上下文聚合信息。

也就是说被 Mask 的位置充当 Query,利用上下文 Key/Value 预测原词。

4.经过多层 Transformer 编码后

每个位置都会输出一个向量:

此时:

  • 对于 [MASK] 位置,已经包含了来自前后文的语义信息
  • 它不包含原词 embedding(因为那被替换成了 [MASK]);
  • 但通过 self-attention,它捕获了上下文的关联特征。

5.最后一层预测(输出层)

BERT 的输出层结构是:

其中 (W) 的大小是 V*d_model(与词表大小相同)。

  • 对于每个 token 位置都会计算一份 logits;
  • 但只在 被 Mask 的位置 计算 loss。

即:

loss=CrossEntropy(logits[mask_positions],true_tokens[mask_positions])

softmax 后得到每个词的概率分布:

选择概率最大的那个词作为预测输出。

总结一下就是在 BERT 的 MLM 训练中,被 Mask 的位置仍会生成 Query,它通过自注意力机制读取其他未 Mask 的 Key/Value,聚合成上下文表示,最后通过线性层 + softmax 预测出原词。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值