1.13 12 分数求和

本文介绍了一个简单的算法,用于实现多个分数的求和并将其化简为最简形式。该算法适用于分子分母均为正整数且不超过10的分数求和问题。

12:分数求和

描述

输入n个分数并对他们求和,并用最简形式表示。所谓最简形式是指:分子分母的最大公约数为1;若最终结果的分母为1,则直接用整数表示。

如:5/6、10/3均是最简形式,而3/6需要化简为1/2, 3/1需要化简为3。

分子和分母均不为0,也不为负数。

输入
第一行是一个整数n,表示分数个数,1 <= n <= 10;
接下来n行,每行一个分数,用"p/q"的形式表示,不含空格,p,q均不超过10。
输出
输出只有一行,即最终结果的最简形式。若为分数,用"p/q"的形式表示。
样例输入
2
1/2
1/3
样例输出
5/6
#include<cstdio>
#include<iostream>
#include<cmath>
#include<algorithm>
#include<cstring>
using namespace std;
int main()
{
	int chengji=1;
	int n;
	int fenzi[11],fenmu[11];	
	char c;
	cin>>n;
	for(int i=1;i<=n;i++) 
	{
	  cin>>fenzi[i]>>c>>fenmu[i];
	  if(chengji%fenmu[i]!=0) chengji=chengji*fenmu[i];
    }
    int sumfenzi=0;
	for(int i=1;i<=n;i++)
	{
		fenzi[i]=fenzi[i]*(chengji/fenmu[i]);
		sumfenzi=fenzi[i]+sumfenzi;
	}
	int minn=min(sumfenzi,chengji);
	for(int i=minn;i>=1;i--)
		if(sumfenzi%i==0 && chengji%i==0)
		{
			sumfenzi=sumfenzi/i;
			chengji=chengji/i;
			break;
		}
	if(sumfenzi%chengji==0) cout<<sumfenzi;
	  else cout<<sumfenzi<<"/"<<chengji;
}





在交通流预测研究中,常见的图神经网络(Graph Neural Networks, GNNs)模型[42,43]包括图卷积网络(Graph Convolutional Network, GCN)和图注意力网络(Graph Attention Network, GAT)。GNN(图神经网络)是一个广义框架,用于处理图结构数据,通过聚合节点及其邻居的信息学习节点或图的表示。GCN(图卷积网络)[44,45]是 GNN 的经典实现之一,它通过卷积操作平均聚合邻居节点的信息,适用于静态图或规则性较强的图结构。GAT(图注意力网络)[46-48]则是在 GCN 的基础上引入注意力机制,根据节点之间的关系动态分配邻居节点的重要性权重,更适合处理复杂图结构和异质关系场景。GAT能够更加灵活地捕捉节点之间的异质关系,从而在复杂路网中识别重要的道路交互关系,提升交通流预测的精度。该模型创新性地集成了自注意力机制与掩码技术,通过多层架构逐级挖掘节点特征,对局部区域内的节点重要性进行自适应调节。这种方法不仅避免了高成本的矩阵运算,还无需事先知道图的结构信息。 在 GAT 中,假设一个图有 个节点,输入的每个节点 的特征表示为 ,经过这一层更新后的节点特征为 。首先,通过一个共享的注意力机制 计算节点间的自注意力分数,该机制根据节点特征之间的关系动态评估各邻接节点的重要性,为后续的特征更新提供依据。其计算方法如公式(2.10)所示 (2.10) 其中, 是一个共享的权重矩阵,用于将原始节点特征从 维映射到 维。然后,通过一个注意力机制函数 将节点间的特征映射到注意力权重,其中 表示节点 对节点 的相对重要性。通常,GAT 使用一个单层前馈神经网络结合 作为非线性激活函数来计算 ,从而更灵活地捕捉节点间的关系特性。公式表示如(2.11)下: (2.11) 为了保留原来的图结构信息,只计算节点 的领接点 的注意力,再进行归一化和融合。归一化后的注意力权重如下式(2.12)所示。 (2.12) 基于这个注意力权重,融合所有临界点的信息,得到更新后的新节点特征,如下式(2.13)所示: (1.13)(2.13) 为了增强模型的表达能力提升训练稳定性,GAT通过引入多头注意力机制实现了有效的改进。具体而言,该方法通过对多个独立注意力头分别计算注意力权重,将得到的结果拼接或进行平均操作,从而形成更强大的特征表示。具体来讲,除后一层,在其他层都是用矩阵拼接的方法来整合多头注意力,式表示如(2.14)下: (2.14) 其中,表示拼接, 是 在 个不同注意力机制间的归一化。而后一层一般使用求平均的方法得到终输出 。 仿照这个写一下 GR-KAN的
最新发布
11-25
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值