Transformer模型(BERT、GPT-1/2/3/3.5/4、DETR、ViT、Swin Transformer等)、生成式模型(变分自编码器VAE、生成式对抗网络GAN、扩散模型Diffusion Model等)、目标检测算法(R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SDD等)、图神经网络(GCN、GAT、GIN等)、强化学习(Q-Learning、DQN等)、深度学习模型可解释性与可视化方法(CAM、Grad-CAM、LIME、t-SNE等)的基本原理及Python代码实现方法。
了解详情点击: 《Python深度学习技术进阶篇|Transformer模型详解》
注意力(Attention)机制详解
1、注意力机制的背景和动机(为什么需要注意力机制?注意力机制的起源和发展)。
2、注意力机制的基本原理:用机器翻译任务带你了解Attention机制、如何计算注意力权重?
3、注意力机制的一些变体(硬性注意力机制、软性注意力机制、键值对注意力机制、多头注意力机制、多头注意力机