[设计模式]memento备忘录模式

本文深入探讨了Memento模式的原理与应用,通过代码示例展示了如何在软件系统设计中提供用户后悔权利,实现撤销操作。重点阐述了窄接口与宽接口的区别,以及如何通过友元类实现封装。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题

没有人想犯错误,但是没有人能够不犯错误。犯了错误一般只能改过,却很难改正(恢复)。世界上没有后悔药,但是我们在进行软件系统的设计时候是要给用户后悔的权利(实际上可能也是用户要求的权利:)),我们对一些关键性的操作肯定需要提供诸如撤销(Undo)的操作。那这个后悔药就是Memento模式提供的。

memento备忘录模式

在不破坏封装性的前提下,捕获一个对象的内部状态,并在该对象之外保存这个状态。这样以后就可将该对象恢复到保存的状态。

解析:Memento模式中封装的是需要保存的状态,当需要恢复的时候才取出来进行恢复.原理很简单,实现的时候需要注意一个地方:窄接口和宽接口.所谓的宽接口就是一般意义上的接口,把对外的接口作为public成员;而窄接口反之,把接口作为private成员,而把需要访问这些接口函数的类作为这个类的友元类,也就是说接口只暴露给了对这些接口感兴趣的类,而不是暴露在外部.下面的实现就是窄实现的方法来实现的.

小demo

memento.h

#ifndef MEMENTO_H
#define MEMENTO_H

#include <string>

typedef std::string State;
class Memento;
class Originator
{
public:
	Originator(const State& rState);
    Originator(){}
    ~Originator(){}

	Memento*	CreateMemento();
	void		SetMemento(Memento* pMemento);
	State	GetState();
	void		SetState(const State& rState);
	void		RestoreState(Memento* pMemento);
	void		PrintState();
private:
	State		m_State;
};

// 把Memento的接口函数都设置为私有的,而Originator是它的友元,
// 这样保证了只有Originator可以对其访问
class Memento
{
private:
	friend class Originator;
	Memento(const State& rState);
	void	SetState(const State& rState);
	State	GetState();
	State	m_State;
};

#endif

memento.cpp

#include "Memento.h"
#include <iostream>
 Originator::Originator(const State& rState) : m_State(rState)
{

}
 
State Originator::GetState()
{
	return m_State;
}

void Originator::SetState(const State& rState)
{
	m_State = rState;
}

Memento* Originator::CreateMemento()
{
	return new Memento(m_State);
}

void Originator::RestoreState(Memento* pMemento)
{
	if (NULL != pMemento)
	{
		m_State = pMemento->GetState();
	}	
}

void Originator::PrintState()
{
	std::cout << "State = " << m_State << std::endl;
}

Memento::Memento(const State& rState) : m_State(rState)
{
}

State Memento::GetState()
{
	return m_State;
}

void Memento::SetState(const State& rState)
{
	m_State = rState;
}

main.cpp

#include "Memento.h"
#include <stdlib.h>
int main()
{
	// 创建一个原发器
	Originator* pOriginator = new Originator("old state");
	pOriginator->PrintState();

	// 创建一个备忘录存放这个原发器的状态
	Memento *pMemento = pOriginator->CreateMemento();
	
	// 更改原发器的状态
	pOriginator->SetState("new state");
	pOriginator->PrintState();

	// 通过备忘录把原发器的状态还原到之前的状态
	pOriginator->RestoreState(pMemento);
	pOriginator->PrintState();

	delete pOriginator;
	delete pMemento;
    system("pause");
	return 0;
}

代码说明:Memento模式的关键就是friendclassOriginator;我们可以看到,Memento的接口都声明为private,而将Originator声明为Memento的友元类。我们将Originator的状态保存在Memento类中,而将Memento接口private起来,也就达到了封装的功效。

Originator类中我们提供了方法让用户后悔:RestoreToMemento(Memento*mt);我们可以通过这个接口让用户后悔。在测试程序中,我们演示了这一点:Originator的状态由old变为new最后又回到了old

### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值