poj1966 Network(最小割)

本文介绍了一种解决无向图最小割问题的方法,通过点边转换将问题转化为求最小割,利用Dinic算法实现。详细解释了如何将点拆分为入点和出点,以及如何在转换后的图上应用最小割算法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题意

给定一张无向图,求去掉多少个点,可以使图不连通。

题解

最小割
去掉一个点的代价为1,随便枚举两个点,就有了S和T,求最小割掉几个点使S和T不连通?
看似很最小割模板,但是最小割割的是边啊!所以我们要进行点边转换。
借用lyd一张图:

把每个点拆成入点x和出点x’,先连一条(x,x',1)。
对于原图中(x,y),按“出点连入点”的原则,(x',y,inf),(y',x,inf)。
在此基础上跑最小割就大功告成了。
实现时为了再提一下速,我们可以把S点定为1或1',T点再去枚举。

代码

#include<cstdio>
#include<cstring>
#include<algorithm>
#define id(i,j) i+j*n
using namespace std;
const int inf=(1<<30)-1;
const int maxn=60;

int n,m;

inline int read()
{
    int re=0;char ch=getchar();
    while(ch<'0' || ch>'9') ch=getchar();
    while(ch>='0' && ch<='9') re=re*10+(ch^48),ch=getchar();
    return re;
}

bool ma[maxn][maxn];
struct E{int y,c,next;}e[(maxn*maxn+maxn)*2];int len,last[maxn*2];//debug 大小 
void ins(int x,int y,int c)
{
    e[++len]=(E){y,c,last[x]};last[x]=len;
    e[++len]=(E){x,0,last[y]};last[y]=len;
}

int S,T;
void make_edge()
{
    len=1;memset(last,0,sizeof(last));
    for(int i=1;i<=n;i++)
        if(i!=S && i!=T) ins(id(i,0),id(i,1),1);
        else ins(id(i,0),id(i,1),inf);
    for(int x=1;x<=n;x++)
        for(int y=1;y<=n;y++)
            if(ma[x][y]) ins(id(x,1),id(y,0),inf);
}

int h[maxn*2];
int head,tail,q[maxn*2];
bool bfs()
{
    head=0,tail=1;q[0]=S;
    memset(h,0,sizeof(h));h[S]=1;
    while(head<tail)
    {
        int x=q[head++];
        for(int k=last[x];k;k=e[k].next)
        {
            int y=e[k].y;
            if(e[k].c && h[y]==0)
            {
                h[y]=h[x]+1;
                q[tail++]=y;
            }
        }
    }
    return h[T]>0;
}

int dinic(int x,int flow)
{
    if(x==T) return flow;
    int rest=flow;
    for(int k=last[x];k;k=e[k].next)
    {
        int y=e[k].y;
        if(e[k].c && h[y]==h[x]+1)
        {
            int incf=dinic(y,min(rest,e[k].c));
            rest-=incf;
            e[k].c-=incf;e[k^1].c+=incf;
            if(rest==0) break;
        }
    }
    if(rest==flow) h[x]=0;
    return flow-rest;
}

int main()
{
    while(scanf("%d%d",&n,&m)!=EOF)
    {
        if(n==0){puts("0");continue;}
        if(n==1){puts("1");continue;}
        memset(ma,false,sizeof(ma));
        for(int i=1;i<=m;i++)
        {
            int x=read()+1,y=read()+1;
            ma[x][y]=ma[y][x]=true;
        }
        int ans=n;
        for(int i=1;i<=2;i++)//1->1,2->1'
            for(int j=1;j<=n;j++) if(i!=j)
            {
                S=i,T=id(j,0);//注意T是某个点的入点
                make_edge();
                int tans=0,flow;
                while(bfs())
                    while(flow=dinic(S,inf)) tans+=flow;
                ans=min(ans,tans);
            }
        printf("%d\n",ans);
    }
    return 0;
}

 

内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值