CH6201走廊泼水节

探讨了在给定树的基础上,如何通过增加边来构造一个完全图,同时确保原树仍为该图的唯一最小生成树。文章详细介绍了算法思路,包括边的排序和类似于Kruskal算法的过程,以及如何确定新增边的权值,以实现总权值最小的目标。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题目链接:

CH6201

【简化版题意】给定一棵N个节点的树,要求增加若干条边,把这棵树扩充为完全图,并满足图的唯一最小生成树仍然是这棵树。求增加的边的权值总和最小是多少。

输入格式

 本题为多组数据~
 第一行t,表示有t组测试数据
 对于每组数据
 第一行N,表示水龙头的个数(当然也是OIER的个数);
 2到N行,每行三个整数X,Y,Z;表示水龙头X和水龙头Y有一条长度为Z的小道

输出格式

 对于每组数据,输出一个整数,表示修建的所有道路总长度的最短值。

样例输入
2
3
1 2 2
1 3 3
4
1 2 3
2 3 4
3 4 5 
样例输出
4
17 
数据范围与约定
  •  每个测试点最多10组测试数据
     50% n<=1500;
     100% n<=6000
     100% z<=100
样例解释

第一组数据,在2和3之间修建一条长度为4的道路,是这棵树变成一个完全图,且原来的树依然是这个图的唯一最小生成树.

 

  

  • 思路:先将所有边按边权排序,然后执行一个类似于Kruskall的过程,每次扫描到边(x,y,z)时,若x,y不在同一个集合,此时应该合并Sx,Sy,此时,对于x所在集合中除x之外的点u,y所在集合中除y之外的点v,完全图中u与v之间肯定要连一条边,有因为要保证边(x,y)一定在最小生成树中,就必须让(x,y)是连接两个集合的边权最小的边。所以(u,v)的边权最小为z+1.而Sx与Sy之间最后一共会增加(size[x]*size[y]-1)条边,所以把(z+1)*(size[x]*size[y]-1)累加到答案中即可

  代码:

  

#include <cstdio>
#include <algorithm>
#include <cctype>
#include <cstring>
#include <iostream>
#include <queue>
using namespace std;

const int N=6010;
long long ans=0;
int fa[N],size[N],T,n;
struct E{int x,y,z;}e[N];
bool operator<(const E &n1,const E &n2){return n1.z<n2.z;}

inline int get(int x){
    if(x==fa[x]) return x; return fa[x]=get(fa[x]);
}
int main()
{
    scanf("%d",&T);
    while(T--)
    {
        scanf("%d",&n); 
        for(int i=1 ; i<n ; i++)  scanf("%d %d %d",&e[i].x,&e[i].y,&e[i].z);
        for(int i=1 ; i<=n ; i++) fa[i]=i,size[i]=1;
        sort(e+1,e+n);    ans=0;
        for(int i=1 ; i<n ; i++)
        {
            int x=get(e[i].x),y=get(e[i].y);
            if(x==y) continue;
            fa[x]=y; ans+=(long long)(size[x]*size[y]-1)*(e[i].z+1);
            size[y]+=size[x];
        }
        printf("%lld\n",ans);
    }
    
    return 0;
}

  

 

 

转载于:https://www.cnblogs.com/wmq12138/p/10340259.html

资源下载链接为: https://pan.quark.cn/s/140386800631 通用大模型文本分类实践的基本原理是,借助大模型自身较强的理解和推理能力,在使用时需在prompt中明确分类任务目标,并详细解释每个类目概念,尤其要突出类目间的差别。 结合in-context learning思想,有效的prompt应包含分类任务介绍及细节、类目概念解释、每个类目对应的例子和待分类文本。但实际应用中,类目和样本较多易导致prompt过长,影响大模型推理效果,因此可先通过向量检索缩小范围,再由大模型做最终决策。 具体方案为:离线时提前配置好每个类目的概念及对应样本;在线时先对给定query进行向量召回,再将召回结果交给大模型决策。 该方法不更新任何模型参数,直接使用开源模型参数。其架构参考GPT-RE并结合相关实践改写,加入上下文学习以提高准确度,还使用BGE作为向量模型,K-BERT提取文本关键词,拼接召回的相似例子作为上下文输入大模型。 代码实现上,大模型用Qwen2-7B-Instruct,Embedding采用bge-base-zh-v1.5,向量库选择milvus。分类主函数的作用是在向量库中召回相似案例,拼接prompt后输入大模型。 结果方面,使用ICL时accuracy达0.94,比bert文本分类的0.98低0.04,错误类别6个,处理时添加“家居”类别,影响不大;不使用ICL时accuracy为0.88,错误58项,可能与未修改prompt有关。 优点是无需训练即可有较好结果,例子优质、类目界限清晰时效果更佳,适合围绕通用大模型api打造工具;缺点是上限不高,仅针对一个分类任务部署大模型不划算,推理速度慢,icl的token使用多,用收费api会有额外开销。 后续可优化的点是利用key-bert提取的关键词,因为核心词语有时比语意更重要。 参考资料包括
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值