【板子】并查集

1、普通

#include <bits/stdc++.h>
using namespace std;
const int maxn=200000;
int parent[maxn];//num记i中点的数量
int find(int x)//查找且缩点
{
    if(x!=parent[x])
    {
        parent[x]=find(parent[x]);
    }
    return parent[x];
}
void unite(int a,int b)//合并
{
    int pa=find(a);
    int pb=find(b);
    if(pa==pb) return ;
    parent[pa]=pb;
}
int main()
{
    int n;
    while(scanf("%d",&n)!=EOF)
    {
        for(int i=1;i<maxn;i++)
        {
            parent[i]=i;
        }
        for(int i=1;i<=n;i++)
        {
            int a,b;
            scanf("%d%d",&a,&b);
            unite(a,b);
        }
    }
    //system("pause");
    return 0;
}

2、带权

#include <bits/stdc++.h>
using namespace std;
const int maxn=200005;
int parent[maxn],value[maxn];
int find(int x)//查找且缩点
{
    if(x!=parent[x])
    {
        int t=parent[x];
        parent[x]=find(parent[x]);
        value[x]+=value[t];
    }
    return parent[x];
}
bool unite(int a,int b,int v)//合并
{
    int pa=find(a);
    int pb=find(b);
    if(pa==pb)
    {
        if(value[a]-value[b]!=v)
        {
            return 0;
        }
    }
    else
    {
        if(pa<pb)
        {
            parent[pa]=pb;
            value[pa]=value[b]-value[a]+v;
        }
        else
        {
            parent[pb]=pa;
            value[pb]=value[a]-value[b]-v;
        }
    }
    return 1;
}
int main()
{
    int n,m;
    while(cin>>n>>m)
    {
        int ans=0;
        for(int i=0;i<=n;i++)
        {
            parent[i]=i;
            value[i]=0;
        }
        for(int i=1;i<=m;i++)
        {
            int a,b,v;
            scanf("%d%d%d",&a,&b,&v);
            if(!unite(a,b+1,v))
            {
                ans++;
            }
        }
        printf("%d\n",ans);
    }
    //system("pause");
    return 0;
}

 

内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台搭建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的搭建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值