hdu6141 I am your Father!

本文介绍了一种解决特定图论问题的经典方法,该问题要求在树形图中找到一条路径,使得路径上的权值之和最大,同时某个特定节点的父亲节点的编号尽可能小。文章详细解释了解决方案,并附带了一段使用朱刘算法实现的C++代码。

http://acm.hdu.edu.cn/showproblem.php?pid=6141

卧槽经典在代码里下毒,卡一年

经典套路图论问题中要让一个最大另一个最小,就把最大的那个* 一个数值,小的那个反向加入,让其作为新的边权,通过最后的答案来直接得到最大的能使多少,需要最小的能使多少

这个套路当年17年区域赛网络赛还是个萌新的时候有个网络流的题然后卢总教我这个方法的。

那么这题要总和最大,n的父亲最小,那么就把所有连向n的边w=w*base+(n-i+1) (base>n),这样最后答案ans%base就相当于是n-i+1,ans/base就是最大总和

然后就是个最小树形图板题了,话说这题没说保证一定有解,但是没要求输出无解,就自动当一定有解了

这题下的毒是最后还原 n-i+1时,我的n是全局变量,在朱刘算法里n变成缩点后的cnt了。。。我晕了,建议代码解耦度高一点,多搞点局部变量。。。

#include<bits/stdc++.h>
using namespace std;
typedef long long ll;

const int maxl=2e4+10;
const ll base=2000;
const ll inf=1ll<<60;

int n,orin,m;ll ans;
int pre[maxl],id[maxl],vis[maxl];
ll ine[maxl];
struct ed
{
	int u,v;ll w;
}e[maxl];

inline void prework()
{
	scanf("%d%d",&n,&m);orin=n;
	for(int i=1;i<=m;i++)
	{
		int u,v;ll w;
		scanf("%d%d%lld",&u,&v,&w);
		w=w*base;
		if(v==n)
			w+=n-u+1;
		e[i]=ed{u,v,-w};
	}
}

inline ll zhuliu()
{
	ll ans=0;int rt=1;
	while(1)
	{
		for(int i=1;i<=n;i++) ine[i]=inf;
		for(int i=1;i<=m;i++)
		{
			int u=e[i].u,v=e[i].v;
			if(u!=v && e[i].w<ine[v])
				ine[v]=e[i].w,pre[v]=u;
		}
		/*for(int i=1;i<=n;i++)
		if(i!=rt && ine[i]==inf) 
			return -1;
		*/
		int cnt=0;
		for(int i=1;i<=n;i++)
			vis[i]=id[i]=0;
		for(int i=1;i<=n;i++)
		{
			if(i==rt) continue;
			ans+=ine[i];
			int v=i;
			while(vis[v]!=i && !id[v] && v!=rt)
			{
				vis[v]=i;
				v=pre[v];
			}
			if(!id[v] && v!=rt)
			{
				id[v]=++cnt;
				for(int u=pre[v];u!=v;u=pre[u])
					id[u]=cnt;
			}
		}
		if(cnt==0) break;
		for(int i=1;i<=n;i++)
		if(!id[i])
			id[i]=++cnt;
		for(int i=1;i<=m;i++)
		{
			int u=e[i].u,v=e[i].v;
			e[i].u=id[u],e[i].v=id[v];
			if(id[u]!=id[v])
				e[i].w-=ine[v];
		}
		rt=id[rt];n=cnt;
	}
	return ans;
}

inline void mainwork()
{
	ans=-zhuliu();
}

inline void print()
{
	ll mi=ans/base,fa=orin-(ans%base)+1;
	printf("%lld %lld\n",mi,fa);
}

int main()
{
	int t;
	scanf("%d",&t);
	for(int i=1;i<=t;i++)
	{
		prework();
		if(n==1)
		{
			puts("0 1");
			continue;
		}
		mainwork();
		print();
	}
	return 0;
}

 

内容概要:本文介绍了基于贝叶斯优化的CNN-LSTM混合神经网络在时间序列预测中的应用,并提供了完整的Matlab代码实现。该模型结合了卷积神经网络(CNN)在特征提取方面的优势与长短期记忆网络(LSTM)在处理时序依赖问题上的强大能力,形成一种高效的混合预测架构。通过贝叶斯优化算法自动调参,提升了模型的预测精度与泛化能力,适用于风电、光伏、负荷、交通流等多种复杂非线性系统的预测任务。文中还展示了模型训练流程、参数优化机制及实际预测效果分析,突出其在科研与工程应用中的实用性。; 适合人群:具备一定机器学习基基于贝叶斯优化CNN-LSTM混合神经网络预测(Matlab代码实现)础Matlab编程经验的高校研究生、科研人员及从事预测建模的工程技术人员,尤其适合关注深度学习与智能优化算法结合应用的研究者。; 使用场景及目标:①解决各类时间序列预测问题,如能源出力预测、电力负荷预测、环境数据预测等;②学习如何将CNN-LSTM模型与贝叶斯优化相结合,提升模型性能;③掌握Matlab环境下深度学习模型搭建与超参数自动优化的技术路线。; 阅读建议:建议读者结合提供的Matlab代码进行实践操作,重点关注贝叶斯优化模块与混合神经网络结构的设计逻辑,通过调整数据集参数加深对模型工作机制的理解,同时可将其框架迁移至其他预测场景中验证效果。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值