记一次博文被转载的经历,遇事需淡定

记一次博文被转载的经历,遇事需淡定

  Lan   2020-05-28 09:30   171 人阅读  0 条评论

今天,突然想在百度上搜一下自己的QQ,然后发现自己前几天发的一篇博文被人转载了,本来还挺开心的,但是进去一看,这位转载的站长,没有留出处,而且居然比我先发布。

转载截图:

image.png

博客原文:https://www.lanol.cn/post/238.html

然后呢,我还联系了作者QQ,

image.png

然后,当时转载的站长在忙所以没有及时回复(一个小时之后回复我了),第一次被转载文章,也不知道该如何处理,也是比较比较激动的。然后我就在Mjj论坛发帖寻求帮助,还是Mjj人才多。瞬间就不气了。

首先,我的博文能被盗取,说明我厉害呀。其次,转载文章中的代码中的网址并没有修改,然后,转载的还是我第一次写出来,程序员嘛,你懂得,就是不断创造Bug,修补Bug。所以转载的代码及软件,都是不可用的。

以下截取了部分Mjj的评论,谢谢了

image.png

image.png

image.png

image.png

image.png

然后在晚上10点多的时候。我收到了转载站长的回复(是我之前鲁莽了)

image.png

这位站长还非常友好的给我加了个友链,所以遇事需要冷静,不能像我刚开始那样,不可能谁都一直有时间守在电脑旁,其次自己需要做好防护措施,具体怎么做可以看上面Mjj大佬们的评论

本文地址: https://www.lanol.cn/post/247.html
版权声明:本文为原创文章,版权归  Lan 所有,欢迎分享本文,转载请保留出处!
赞赏 打赏二维码

文章导航

### 关于Transformer模型中的'Attention is All You Need' 在探讨Transformer架构时,核心理念在于注意力机制的重要性被提升到了前所未有的高度[^1]。传统序列处理依赖循环神经网络(RNN),而Transformer摒弃了RNN结构,完全依靠自注意力(self-attention)机制实现输入到输出的映射。 #### 自注意力机制 自注意力允许模型关注同一序列的不同位置,从而捕捉更丰富的上下文关系。具体来说,在每一层中,对于给定的位置i,计算其与其他所有位置j之间的关联度得分,并据此调整权重分布。这种设计使得远距离依赖能够得到更好的建模[^2]。 #### 编码器-解码器框架下的多头注意力 为了增强表达能力,Transformer采用了多头注意力(multi-head attention)方案。每个头部负责学习不同子空间内的特征表示,最终将多个头部的结果拼接起来作为该层的输出。这样的设置不仅提高了并行化程度,还赋予了模型更强的信息提取能力[^3]。 ```python import torch.nn as nn class MultiHeadedAttention(nn.Module): def __init__(self, h, d_model, dropout=0.1): super(MultiHeadedAttention, self).__init__() assert d_model % h == 0 # We assume d_v always equals d_k self.d_k = d_model // h self.h = h self.linears = clones(nn.Linear(d_model, d_model), 4) self.attn = None self.dropout = nn.Dropout(p=dropout) def forward(self, query, key, value, mask=None): ... ``` #### 前馈神经网络与残差连接 除了独特的注意力模块外,标准的Transformer还包括基于位置的全连接前馈网络(position-wise feed-forward networks)[^5]。这些组件通常会配合跳跃连接(skip connections)一起工作,形成残差网络(residual network),有助于缓解深层网络训练过程中的梯度消失问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值