十二、Transformer

Transformer详解:结构、自注意力机制与教学引导训练,

参考Transformer详解 和 Transforner模型详解

1 Transformer 整体结构

Transformer 由 Encoder 和 Decoder 两个部分组成,Encoder 和 Decoder 都包含 6 个 block。

2 Transformer 局部结构 

2.1 输入层

Transformer 中的输入层是由单词的 Word Embedding 和 Positional Embedding 相加得到。

以"I Really Love You" 翻译成中文 "我真地爱你" 为例:参考Transformer代码讲解

  • Word Embedding 表示将输入的单词 "I", "Really", "Love", "You" ,每一个都用 One-Hot 独热编码、Word2Vec 或 GloVe 等形式的词向量表示,一个句子就可以用一个矩阵来表示。
  • Positional Embedding  表示保存输入的单词"I", "Really",  "Love", "You" 出现在序列中的相对或绝对位置(一句话中词语出现位置不同,意思可能发生翻天覆地的变化)。
  • 编码层 Encoder 的输入则需要将每个单词的 Word Embedding 与位置编码 Positional Encoding 相加得到
  • Output Embedding 与输入 Input Embedding 的处理方法步骤一样,输入 Input Embedding 接收的是 source 数据,输出 Output Embedding 接收的是 target 数据(例如:输入 Input Embedding 接收 "I Love You" 分词后的词向量 Word Embedding;输出 Output Embedding 接收 “我爱你” 分词后的词向量 Word Embedding)
  • 注意:只是在有 target 数据时也就是在进行有监督训练时才会接收 Outputs  Embedding,进行预测时则不会接收。

Q1:Positional Encoding 如何获取?

通过数据训练学习得到 Positional Encoding ,类似于训练学习词向量。

Q2:有监督训练和无监督训练是什么,二者有什么区别?参考有监督学习与无监督学习的区别

  • 有监督学习 Supervised Learning 方法必
### Meta-Transformer 模型架构 Meta-Transformer旨在创建一个多模态统一的学习框架,该框架允许模型从不同的数据类型中提取特征并进行有效的学习。为了达到这一目的,Meta-Transformer引入了一系列创新机制。 #### 统一编码器结构 Meta-Transformer采用了一个共享参数的统一编码器来处理来自不同模态的数据[^3]。这种设计减少了针对特定模态定制化建模的需求,从而降低了系统的复杂性和提高了灵活性。具体来说: - **元标记化**:对于输入的不同形式的数据(如文本、图像等),Meta-Transformer利用元标记化技术将其转化为序列化的表示形式,以便后续由同一套神经网络层处理[^2]。 - **自注意力机制增强版**:基于标准的变压器架构中的自注意机制,Meta-Transformer对其进行了改进以更好地适应多源异构信息融合的要求。这些改动有助于提高跨域关联性的捕捉能力以及整体表征的质量。 #### 多样化的实验验证 通过对多个领域内共计十二种不同类型的任务进行全面评测——涵盖了基础感知任务(文字理解、视觉解析)、实际应用场景下的挑战(医疗影像分析、红外线探测)乃至高级别的数据分析工作(社交网络关系挖掘、时间序列预测)——证明了Meta-Transformer的有效性及其广泛适用性[^4]。 ```python class MetaTransformer(nn.Module): def __init__(self, config): super(MetaTransformer, self).__init__() # 定义元标记化模块和其他必要组件 def forward(self, inputs): """ 输入为经过预处理后的多模态数据, 输出则是对应的隐藏状态向量或其他中间产物。 """ pass @staticmethod def tokenize(input_data): """根据不同类型的原始数据执行相应的元标记操作""" tokenized_output = None # 实现具体的转换逻辑 return tokenized_output ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

瑞雪兆我心

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值