HDU 4280 Island Transport 又一发SAP

本文详细介绍了一种名为SAP的最大流算法实现,通过C++代码展示了如何构造和维护层次图,并利用SAP算法进行流量增广的过程。具体包括初始化图结构、添加边、使用BFS建立层次图以及SAP算法的主要流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

终于有点SAP的感觉了。总结下模板

#include<cstdio>
#include<cstring>
#include<algorithm>
#include<queue>
using namespace std;
const int maxn=100008;
const int INF=0x7f7f7f7f;
struct fuck{
    int u,v,w,cap,next;
}edge[maxn<<2];
int head[maxn];
int tol;
void init()
{
    tol=0;
    memset(head,-1,sizeof(head));
}
void addedge(int u,int v,int w)
{
    edge[tol].u=u;
    edge[tol].v=v;
    edge[tol].cap=w;
    edge[tol].next=head[u];
    head[u]=tol++;
    edge[tol].u=v;
    edge[tol].v=u;
    edge[tol].cap=0;
    edge[tol].next=head[v];
    head[v]=tol++;
}
bool vis[maxn];
int dep[maxn],gap[maxn];
//  bfs反向构造层次图,那么只关注反向残量为0的边
void bfs(int sour,int sink)
{
    queue<int>  q;
    memset(vis,false,sizeof(vis));
    memset(dep,-1,sizeof(dep));
    memset(gap,0,sizeof(gap));
    q.push(sink);
    dep[sink]=0;gap[0]=1;vis[sink]=true;
    int u,v,i;
    while(!q.empty())
    {
        u=q.front();q.pop();
        for(i=head[u];i!=-1;i=edge[i].next)
        {
            v=edge[i].v;
            if(!vis[v]&&edge[i].cap==0)
            {
                vis[v]=true;
                dep[v]=dep[u]+1;
                q.push(v);
                gap[dep[v]]++;
            }
        }
    }
}
int cur[maxn],S[maxn];
int last;
// 分三个过程
int sap(int sour,int sink)
{
    bfs(sour,sink);
    int i,u;
    for(i=0;i<=last;i++)
        cur[i]=head[i];//当前狐
    int top=0,max_flow=0;
    u=sour;
    /*三个步骤。1从当前狐查找可行狐(残量大于0,层次差为1)
             2 若没有找到可行狐,寻找当前节点的所有相邻点,找最小的dep修改当前点层次
                退回到上一个点继续查找
              3 若找到汇点,在路径中找到一条残量最小的边,以这个残量修改整个路径
                然后从这条边的起点继续查找*/
    while(dep[sour]<last)//起点层次等于所有弧长说明没有***了
    {
        if(u==sink)
        {
            int temp=INF,inser;
            for(i=0;i<top;i++)
            {
                if(edge[S[i]].cap<temp)
                {
                    temp=edge[S[i]].cap;
                    inser=i;
                }
            }
            for(i=0;i<top;i++)
            {
                edge[S[i]].cap-=temp;
                edge[S[i]^1].cap+=temp;
            }
            max_flow+=temp;
            top=inser;
            u=edge[S[top]].u;
        }
        if(u!=sink&&gap[dep[u]-1]==0)   break;//简直,出现断层即退出
        for(i=cur[u];i!=-1;i=edge[i].next)
            if(edge[i].cap>0&&dep[u]==dep[edge[i].v]+1)
                break;
        if(i!=-1)
        {
            cur[u]=i;
            S[top++]=i;
            u=edge[i].v;
        }
        else
        {
            int mi=last;
            for(i=head[u];i!=-1;i=edge[i].next)
            {
                if(edge[i].cap==0)  continue;
                if(mi>dep[edge[i].v])
                {
                    mi=dep[edge[i].v];
                    cur[u]=i;
                }
            }
            --gap[dep[u]];
            dep[u]=mi+1;
            ++gap[dep[u]];
            if(u!=sour)     u=edge[S[--top]].u;
        }
    }
    return max_flow;
}
int main()
{
    int i,j,n,m,u,v,w,t,x,y;
    scanf("%d",&t);
    while(t--)
    {
        scanf("%d%d",&n,&m);
        init();
        int sour,sink;
        int mi=1e9,ma=-1e9;
        for(i=1;i<=n;i++)
        {
            scanf("%d%d",&x,&y);
            if(x<mi)
            {
                mi=x;
                sour=i;
            }
            if(x>ma)
            {
                ma=x;
                sink=i;
            }
        }
        for(i=1;i<=m;i++)
        {
            scanf("%d%d%d",&u,&v,&w);
            addedge(u,v,w);
            addedge(v,u,w);
        }
        last=n;
        printf("%d\n",sap(sour,sink));
    }
    return 0;
}

 

转载于:https://www.cnblogs.com/bitch1319453/p/4756064.html

### RT-DETRv3 网络结构分析 RT-DETRv3 是一种基于 Transformer 的实时端到端目标检测算法,其核心在于通过引入分层密集正监督方法以及一系列创新性的训练策略,解决了传统 DETR 模型收敛慢和解码器训练不足的问题。以下是 RT-DETRv3 的主要网络结构特点: #### 1. **基于 CNN 的辅助分支** 为了增强编码器的特征表示能力,RT-DETRv3 引入了一个基于卷积神经网络 (CNN) 的辅助分支[^3]。这一分支提供了密集的监督信号,能够与原始解码器协同工作,从而提升整体性能。 ```python class AuxiliaryBranch(nn.Module): def __init__(self, in_channels, out_channels): super(AuxiliaryBranch, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.bn = nn.BatchNorm2d(out_channels) def forward(self, x): return F.relu(self.bn(self.conv(x))) ``` 此部分的设计灵感来源于传统的 CNN 架构,例如 YOLO 系列中的 CSPNet 和 PAN 结构[^2],这些技术被用来优化特征提取效率并减少计算开销。 --- #### 2. **自注意力扰动学习策略** 为解决解码器训练不足的问题,RT-DETRv3 提出了一种名为 *self-att 扰动* 的新学习策略。这种策略通过对多个查询组中阳性样本的标签分配进行多样化处理,有效增加了阳例的数量,进而提高了模型的学习能力和泛化性能。 具体实现方式是在训练过程中动态调整注意力权重分布,确保更多的高质量查询可以与真实标注 (Ground Truth) 进行匹配。 --- #### 3. **共享权重解编码器分支** 除了上述改进外,RT-DETRv3 还引入了一个共享权重的解编码器分支,专门用于提供密集的正向监督信号。这一设计不仅简化了模型架构,还显著降低了参数量和推理时间,使其更适合实时应用需求。 ```python class SharedDecoderEncoder(nn.Module): def __init__(self, d_model, nhead, num_layers): super(SharedDecoderEncoder, self).__init__() decoder_layer = nn.TransformerDecoderLayer(d_model=d_model, nhead=nhead) self.decoder = nn.TransformerDecoder(decoder_layer, num_layers=num_layers) def forward(self, tgt, memory): return self.decoder(tgt=tgt, memory=memory) ``` 通过这种方式,RT-DETRv3 实现了高效的目标检测流程,在保持高精度的同时大幅缩短了推理延迟。 --- #### 4. **与其他模型的关系** 值得一提的是,RT-DETRv3 并未完全抛弃经典的 CNN 技术,而是将其与 Transformer 结合起来形成混合架构[^4]。例如,它采用了 YOLO 系列中的 RepNCSP 模块替代冗余的多尺度自注意力层,从而减少了不必要的计算负担。 此外,RT-DETRv3 还借鉴了 DETR 的一对一匹配策略,并在此基础上进行了优化,进一步提升了小目标检测的能力。 --- ### 总结 综上所述,RT-DETRv3 的网络结构主要包括以下几个关键组件:基于 CNN 的辅助分支、自注意力扰动学习策略、共享权重解编码器分支以及混合编码器设计。这些技术创新共同推动了实时目标检测领域的发展,使其在复杂场景下的表现更加出色。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值