HDU 4305 Lightning 生成树计数

本文介绍了一种解决特定场景下距离联通问题的算法实现。该算法考虑了节点间距离小于给定阈值r且不被其他节点遮挡时能够互相联通的情况。通过构造矩阵并运用行列式计算的方法来判断哪些节点可以互相联通。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

http://acm.hdu.edu.cn/showproblem.php?pid=4305

题意:距离小于r可以联通,但是中间不能被挡住。

代码:

#include<bits/stdc++.h>

using namespace std;

typedef long long ll;
const int maxn =305;
const ll mode =1e4+7;
struct node{
	int x,y;
}p[306];

bool checksame(node a,node b,node c){
	if(b.x<min(a.x,c.x)||b.x>max(a.x,c.x))return false;
	if(b.y<min(a.y,c.y)||b.y>max(a.y,c.y))return false;
	if(((a.x-c.x)*(c.y-b.y))!=((c.x-b.x)*(a.y-c.y)))return false;
	return true;
}

ll a[305][305];
ll det(int n){
	int i,j,k;
	ll ans=1;
	for(i=0;i<n;i++){
		for(j=i+1;j<n;j++){
			while(a[j][i]){
				ll tmp=a[i][i]/a[j][i];
				for(k=0;k<n;k++){
					a[i][k]=((a[i][k]-a[j][k]*tmp)%mode+mode)%mode;
					swap(a[i][k],a[j][k]);
				}
				ans= -ans;
			}
		}
		if(a[i][i]==0)return -1;
		ans=ans*a[i][i]%mode;
	}
	return (ans%mode+mode)%mode;
}
int n;
ll r;
int len(node a,node b){
	return (a.x-b.x)*(a.x-b.x)+(a.y-b.y)*(a.y-b.y);
}
int g[maxn][maxn];
int main(){
	//freopen("1","r",stdin);
	int t,i,j,k;
	scanf("%d",&t);
	while(t--){
		memset(a,0,sizeof(a));
		memset(g,0,sizeof(g));
		scanf("%d%lld",&n,&r);
		r=r*r;
		//printf("%lld\n",r);
		for(i=0;i<n;i++)scanf("%d%d",&p[i].x,&p[i].y);
		for(i=0;i<n;i++){
			for(j=0;j<n;j++){
				if(i==j)continue;
				if(len(p[i],p[j])>r)continue;
				for(k=0;k<n;k++){
					if(k==i||k==j)continue;
					if(checksame(p[i],p[k],p[j]))break;
				}
				if(k==n)g[i][j]=1;
			}
		}
		//for(i=0;i<n;i++){for(j=0;j<n;j++)printf("%d ",g[i][j]);putchar('\n');}
		for(i=0;i<n;i++){
			for(j=0;j<n;j++)if(g[i][j]&&i!=j){
					a[i][i]++;
					a[i][j]=-1;
				}
		}
		ll ans=det(n-1);
		printf("%lld\n",ans);
	}
    return 0;
}

 

内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值