【2.数据结构-模板】9.并查集(模板)

本文详细介绍了并查集的基本概念及其实现方式,并通过三个具体的应用场景:合并集合、连通块中点的数量统计以及食物链关系的维护,展示了并查集算法在解决实际问题中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.合并集合

#include<iostream>

using namespace std;

const int N=100010;
int p[N];                                        //定义多个集合

//返回祖宗节点+路径压缩
int find(int x)
{
    if(p[x]!=x) p[x]=find(p[x]);
    //p[x]表示x的父节点,每个集合中只有祖宗节点的p[x]值等于他自己,即:p[x]=x;

    return p[x];
    //找到了便返回祖宗节点的值
}

int main()
{
    int n,m;
    scanf("%d%d",&n,&m);
    for(int i=1;i<=n;i++) p[i]=i;                //初始化每个集合
    
    while(m--)
    {
        char op[2];
        int a,b;
        scanf("%s%d%d",op,&a,&b);
        if(op[0]=='M') p[find(a)]=find(b);         //集合合并操作,find(a)的父节点为find(b)
        else
        {
        if(find(a)==find(b)) printf("Yes\n");       //如果祖宗节点一样,就输出yes
        else printf("No\n");
        }
    }
    
    return 0;
}

2.连通块中点的数量

#include<iostream>
using namespace std;
const int N=1e5+10;
//siz[N]指的是以N为根节点的所在连通块中点的数量
int f[N],siz[N];

//寻找x的祖宗节点+路径压缩
int find(int x)
{
    if(f[x]!=x) f[x]=find(f[x]);
    return f[x];
}

int main()
{
    int n,m;
    scanf("%d%d",&n,&m);
    //初始化每一个数字代表一个集合
    for(int i=1;i<=n;i++)
    {
        f[i]=i;
        siz[i]=1;
    }
    while(m--)
    {
        
        string op;
        int a,b;
        cin>>op;
        //判断a和b是否在同一个连通块中
        if(op=="Q1")                                         
        {
            scanf("%d%d",&a,&b);
            //如果a和b所在集合为同一集合,则返回ture 否则返回No
            if(find(a)==find(b)) printf("Yes\n");
            else printf("No\n");
        }
        
        //返回a所在连通块的点的个数
        else if(op=="Q2")                                    
        {
            scanf("%d",&a);
            printf("%d\n",siz[find(a)]);
        }
        else
        {
            scanf("%d%d",&a,&b);
            
            //如果a和b所在连通块不相等,则进行合并
            if(find(a)!=find(b))
            {
                //需要注意两者的顺序
                //1.注意此时find(b)才是集合根节点,更新合并后的连通块的点的个数
                siz[find(b)]=siz[find(b)]+siz[find(a)];
                
                //2.链接到find(b)下,合并连通块
                f[find(a)]=find(b);   
            }
        }
    }
}



3.食物链

#include<bits/stdc++.h>
using namespace std;
const int maxn = 5e4 + 10;
int p[maxn], d[maxn];



//并查集维护距离d[x]
int find(int x)
{
    if(p[x] != x)
    {
        int t=find(p[x]);          //t是祖宗节点
        d[x] = d[x] + d[p[x]];     //此时p[x]还是x父节点,而不是祖宗节点
        p[x]=t;                    //此时p[x]是祖宗节点
    }
    return p[x] ;
}


int main()
{
    int n,k; 
    cin >> n >> k;
    
    for(int i = 0; i <= n; i++) p[i] = i;
    
    int res = 0;
    while (k -- )
    {
        int D, x , y;
        scanf("%d%d%d", &D, &x, &y);
        
        int px=find(x),py=find(y);
        
        if(a > n || b > n) res ++;
        else if
        {
            if(D==1)
            {
                if(px==py&&(d[a]-d[b])%3!=0)res++;
                else if(px!=py)
                {
                    p[px]=py;
                    d[px]=d[b]-d[a];
                }
            }
            else 
            {
                if(px==py&&(d[a]-d[b]-1)%3!=0)res++;
                else if(px!=py)
                {
                    p[px]=py;
                    d[px]=d[b]-d[a]+1;
                }
            }
        }
    }
    cout<< res;       
}


### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿斯卡码

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值