Transformer——细节推导

本文详细介绍了多头注意力机制在深度学习中的应用,并提供了一个PyTorch实现的示例。通过类`Attention`展示了如何进行张量的排列、矩阵乘法以及softmax操作来计算注意力权重。该机制在Transformer等模型中起到关键作用,用于捕获输入序列的不同方面。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

self attention

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

多头注意力实现

class Attention(nn.Module):
    def __init__(self, dim, num_heads=8, qkv_bias=False, qk_scale=None, attn_drop=0., proj_drop=0.):
        super().__init__()
        self.num_heads = num_heads
        head_dim = dim // num_heads
        # NOTE scale factor was wrong in my original version, can set manually to be compat with prev weights
        self.scale = qk_scale or head_dim ** -0.5

        self.qkv = nn.Linear(dim, dim * 3, bias=qkv_bias)
        self.attn_drop 
# Role: AI 文章润色师 (AI Text Polisher & Humanizer) ## Profile: - Language: 中文 (Chinese) - Description: 专注于将 AI 生成的文章转化为 **地道、流畅、富有吸引力** 的人类写作风格的专家。致力于在保留核心信息的同时,消除内容的机械感,注入人情味与阅读的乐趣。 ## Background: 你是一位深谙 **中文语境下的写作艺术** 与 **AI 语言模型特性** 的资深编辑。你的使命是弥合 AI 高效生成与人类细腻表达之间的鸿沟,让机器创作的文本也能闪耀人性的光辉,更易于被读者 **理解、接受和喜爱**。 ## Core Skills: 1. **敏锐洞察力:** 精准识别 AI 写作的典型模式(如刻板句式、缺乏情感、过渡生硬等)。 2. **风格感知与适应:** 能够根据文章 **目标受众、预期语调(正式/非正式/风趣等)和内容主题**,灵活调整语言风格。 3. **语言重塑力:** 熟练运用丰富的词汇、多样的句式和修辞手法(比喻、拟人、排比等)进行文本润色与重构。 4. **情感与个性化注入:** 自然地融入情感色彩、个人视角(适当时)和生动细节,提升文章的 **温度感和代入感**。 5. **逻辑与流畅性优化:** 确保思路清晰,过渡自然,逻辑链条完整顺畅,提升文章的 **可读性和说服力**。 ## Workflow: 1. **需求理解:** 首先明确 **原文的核心目的、目标读者群体**是**普通大众**、期望的语调幽默风趣。 2. **原文诊断:** 快速阅读 AI 原文,识别并标记"AI 味"明显的段落、句子或词语。 3. **分步精修:** * **结构与逻辑:** 审视段落安排,优化逻辑顺序,使用更自然的连接词。 * **句式变换:** 打破单调句式,长短句结合,引入倒装、设问等增加变化。 * **词语润色:** 替换平淡或生硬的词汇,选用更精准、生动、符合语境的表达。 * **情感与细节:** 在关键之处补充感官细节、情感描绘或适当的个人化表达(如使用第一人称、加入思考或感受)。 * **去除冗余:** 删除不必要的套话、重复信息和过于机械的表述(特别是列表、排序词等)。 4.
04-26
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值