密码学实验题_03.3_AES实验_【Rijndael-GF】和【GF(2^8)上的本源多项式】等(基于Sage)

本文详细介绍了基于Sage的AES实验,包括利用Rijndael-GF进行AES加解密操作,并探讨了如何构建具有特定不可约多项式的有限域GF(2^8),同时解析了AES的S盒实现和仿射变换过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

密码学实验题_03.3_AES实验_【Rijndael-GF】和【GF(2^8)上的本源多项式】等(基于Sage)

个人关于【3. AES实验】的思考理解(基于Sage的Python源码)
     目录:

       内容 1) 利用Rijndael-GF完成AES的加解密操作(参考Sage Reference中的Rijndael-GF)
       内容 2) (思考题)用Sage构建一个具有256个元素的有限域,令“a”表示生成元,且该有限域的不可约多项式为“a^8 + a^4 + a^3 + a + 1”。(注:默认构建的GF(2^8)对应的不可约多项式不是该多项式,可检测)。


3. AES实验
1)利用Rijndael-GF完成AES的加解密操作(参考Sage Reference中的Rijndael-GF)

# 利用Rijndael-GF完成AES的加解密操作 
from sage.crypto.mq.rijndael_gf import RijndaelGF
aes_rgf = RijndaelGF(4, 4)
print(aes_rgf)

# Sage Reference里面的例子:
#      http://0.0.0.0:6667/kernelspecs/sagemath/doc/reference/cryptography/sage/crypto/mq/rijndael_gf.html
text_plain = '3243f6a8885a308d313198a2e0370734'
print("明文(16字节,4*4矩阵):", end="")
print(text_plain)
key = '2b7e151628aed2a6abf7158809cf4f3c'
print("密钥(16字节,4*4矩阵):", end="")
print(key)
text_expected_ciphertext = '3925841d02dc09fbdc118597196a0b32'

# AES加密 
text_cipher = aes_rgf.encrypt(text_plain, key) 
print("密文(16字节):", end="")
print(text_cipher)

# AES解密
text_decrypt_output = aes_rgf.decrypt(text_cipher, key)
print("再次解密后的输出:", end="")
print(text_decrypt_output)

# 《密码编码学与网络安全——原理与实践(第7版,威廉·斯托林斯)》的 P124页的 AES例子
text_P124_plain = '0123456789abcdeffedcba9876543210'
print("明文(P124页的AES例子): ", end="")
print(text_P124_plain)
text_P124_key = '0f1571c947d9e8590cb7add6af7f6798' 
print("密钥(P124页的AES例子): ", end="")
print(text_P124_key)
# 加密:
text_P124_cipher = aes_rgf.encrypt(text_P124_plain, text_P124_key)
print("加密后的密文(P124页的AES例子): ", end="")
print(text_P124_cipher)
print("结果与P124页上相同!")
print("另外,邀请大家继续看【★《The Design of Rijndael:AES — The Advanced Encryption Standard》电子书2002.pdf】的P230例子")

# ★《The Design of Rijndael:AES — The Advanced Encryption Standard》电子书2002 P230 例子
the_Design_of
### Swin Transformer 论文精读:Hierarchical Vision Transformer Using Shifted Windows Swin Transformer 是一种基于视觉的分层 Transformer 模型,其核心创新在于通过 **Shifted Window-based Self-Attention** 实现了线性计算复杂度,同时能够生成多尺度特征表示。这种方法在图像分类、目标检测和语义分割等任务中取得了显著的性能提升 [^2]。 #### 核心架构概述 Swin Transformer 的整体结构分为多个阶段(Stage),每个阶段包含多个 Swin Transformer Block。这些块使用 **窗口化自注意力机制** 和 **移位窗口策略** 来实现高效计算并捕捉长距离依赖关系。 - **分层特征提取** 类似于传统卷积神经网络(如 ResNet),Swin Transformer 采用分层设计来逐步降低空间分辨率并增加通道维度。这种设计允许模型从局部到全局地构建特征表示。 - **窗口划分与移位窗口机制** 在每个 Swin Transformer Block 中,输入特征图被划分为不重叠的窗口,并在这些窗口内执行自注意力计算。为了增强跨窗口的信息交互,在下一个 Block 中对窗口进行移位操作(Shifted Windows)。这种方式既减少了计算量,又保持了模型对全局信息的感知能力 [^1]。 ```python # 窗口划分伪代码示例 def window_partition(x, window_size): B, H, W, C = x.shape # 将图像划分为多个窗口 x = tf.reshape(x, shape=[B, H // window_size, window_size, W // window_size, window_size, C]) windows = tf.transpose(x, perm=[0, 1, 3, 2, 4, 5]) return tf.reshape(windows, shape=[-1, window_size, window_size, C]) # 移位窗口伪代码 def shifted_window_attention(x, window_size, shift_size): B, H, W, C = x.shape # 对特征图进行滚动操作以实现窗口移位 x = tf.roll(x, shift=(-shift_size, -shift_size), axis=(1, 2)) return window_partition(x, window_size) ``` #### 自注意力机制优化 传统的 Vision TransformerViT)在整个图像上应用自注意力机制,导致计算复杂度为 $O(n^2)$,其中 $n$ 是图像块的数量。而 Swin Transformer 通过将注意力限制在局部窗口内,将复杂度降低到 $O(n)$,使其适用于高分辨率图像处理 [^4]。 此外,移位窗口机制确保了相邻窗口之间的信息流动,从而避免了局部注意力带来的信息隔离问题。这种设计使得 Swin Transformer 能够在保持计算效率的同时实现全局建模能力。 #### 实验结果与性能优势 Swin Transformer 在多个视觉任务中表现出色: - **ImageNet 分类任务**:Swin-Tiny、Swin-Small、Swin-Base 和 Swin-Large 四种变体均在 ImageNet-1K 上实现了优于其他 Transformer 主干网络的 Top-1 准确率。 - **COCO 目标检测**:在 COCO 数据集上,Swin Transformer 在 Faster R-CNN 框架下达到了 SOTA 性能,mAP 超过之前的最佳方法。 - **ADE20K 语义分割**:在 ADE20K 数据集上,Swin Transformer 作为编码器也取得了领先的 mIoU 指标 [^2]。 #### 消融实验分析 论文还进行了详细的消融研究,验证了以下几个关键组件的有效性: - **窗口大小的影响**:较大的窗口有助于捕捉更广泛的上下文,但会增加计算开销。 - **移位窗口的重要性**:实验证明,移位机制可以显著提升模型性能,尤其是在长距离依赖任务中。 - **不同层级的设计**:通过对比不同层级深度和通道配置,论文展示了如何平衡精度与效率 [^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值