【最小割】【Dinic】Gym - 101128F - Landscaping

本文介绍了一种基于Dinic算法实现的最大流问题求解方法,并通过具体的代码展示了如何利用该算法解决实际问题。该算法适用于寻找网络中从源点到汇点的最大流量。

http://blog.youkuaiyun.com/lxy767087094/article/details/68942422

#include<cstdio>
#include<cstring>
#include<algorithm>
#include<queue>
using namespace std;
const int dx[]={0,-1,0,1},dy[]={-1,0,1,0};
typedef long long ll;
const ll INF=10000000000000000ll;
#define MAXN 2505
#define MAXM 30005
int v[MAXM],en,first[MAXN],next[MAXM];
ll cap[MAXM];
int d[MAXN],cur[MAXN];
queue<int>q;
int S,T;
void Init_Dinic(){memset(first,-1,sizeof(first)); en=0;}
void AddEdge(const int &U,const int &V,const ll &W)
{
    v[en]=V; cap[en]=W;
    next[en]=first[U]; first[U]=en++;
    v[en]=U; cap[en]=0;
    next[en]=first[V]; first[V]=en++;
}
bool bfs()
{
    memset(d,-1,sizeof(d)); q.push(S); d[S]=0;
    while(!q.empty())
      {
          int U=q.front(); q.pop();
          for(int i=first[U];i!=-1;i=next[i])
            if(d[v[i]]==-1 && cap[i])
              {
                d[v[i]]=d[U]+1;
                q.push(v[i]);
              }
      }
    return d[T]!=-1;
}
ll dfs(int U,ll a)
{
    if(U==T || !a) return a;
    ll Flow=0,f;
    for(int &i=cur[U];i!=-1;i=next[i])
      if(d[U]+1==d[v[i]] && (f=dfs(v[i],min(a,cap[i]))))
        {
          cap[i]-=f; cap[i^1]+=f;
          Flow+=f; a-=f; if(!a) break;
        }
    if(!Flow) d[U]=-1;
    return Flow;
}
ll max_flow()
{
    ll Flow=0,tmp=0;
    while(bfs())
      {
          memcpy(cur,first,sizeof(first));
          while(tmp=dfs(S,INF)) Flow+=tmp;
      }
    return Flow;
}
int n,m,pen,A,B,id[55][55];
char a[55][55];
int main(){
	scanf("%d%d%d%d",&n,&m,&A,&B);
	for(int i=1;i<=n;++i){
		for(int j=1;j<=m;++j){
			id[i][j]=++pen;
		}
	}
	for(int i=1;i<=n;++i){
		scanf("%s",a[i]+1);
	}
	S=pen+1;
	T=S+1;
	Init_Dinic();
	for(int i=1;i<=n;++i){
		for(int j=1;j<=m;++j){
			if(a[i][j]=='.'){
				AddEdge(S,id[i][j],(ll)B);
			}
			else{
				AddEdge(id[i][j],T,(ll)B);
			}
		}
	}
	for(int i=1;i<=n;++i){
		for(int j=1;j<=m;++j){
			for(int k=0;k<4;++k){
				int tx=i+dx[k],ty=j+dy[k];
				if(tx>=1 && tx<=n && ty>=1 && ty<=m){
					AddEdge(id[i][j],id[tx][ty],(ll)A);
				}
			}
		}
	}
	printf("%lld\n",max_flow());
	return 0;
}

转载于:https://www.cnblogs.com/autsky-jadek/p/7296647.html

基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)内容概要:本文围绕“基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究”展开,提出了一种结合数据驱动方法与Koopman算子理论的递归神经网络(RNN)模型线性化方法,旨在提升纳米定位系统的预测控制精度与动态响应能力。研究通过构建数据驱动的线性化模型,克服了传统非线性系统建模复杂、计算开销大的问题,并在Matlab平台上实现了完整的算法仿真与验证,展示了该方法在高精度定位控制中的有效性与实用性。; 适合人群:具备一定自动化、控制理论或机器学习背景的科研人员与工程技术人员,尤其是从事精密定位、智能控制、非线性系统建模与预测控制相关领域的研究生与研究人员。; 使用场景及目标:①应用于纳米级精密定位系统(如原子力显微镜、半导体制造设备)中的高性能预测控制;②为复杂非线性系统的数据驱动建模与线性化提供新思路;③结合深度学习与经典控制理论,推动智能控制算法的实际落地。; 阅读建议:建议读者结合Matlab代码实现部分,深入理解Koopman算子与RNN结合的建模范式,重点关注数据预处理、模型训练与控制系统集成等关键环节,并可通过替换实际系统数据进行迁移验证,以掌握该方法的核心思想与工程应用技巧。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值