[CF396E]On Iteration of One Well-Known Function

本文介绍了一种高效计算多次应用欧拉函数后的结果的方法。通过筛选质数,并针对每个质因数进行处理,实现了对任意正整数n的欧拉函数的多次迭代计算。

题意:给定$n=\prod\limits_{i=1}^mp_i^{a_i}$,求$\varphi\left(\cdots\varphi\left(n\right)\cdots\right)$(有$k$个$\varphi$)

因为$\varphi(n)=n\prod\limits_{i=1}^m\dfrac{1-p_i}{p_i}$,所以每次对一个数$n$取$\varphi$,就相当于对它的每个质因数$p$,把$n$乘上$\dfrac{p-1}p$

先筛出$10^6$内的质数,然后对$n$的每一个的质因子分别考虑

记$c_p$为当前$n$的质因数分解式中$p$的指数,$k_p$为还要对$p$这个指数执行多少次$\varphi$,每次比较$c$和$k$,可以一次执行$t=\min(c_p,k_p)$次$\varphi$(一次砍掉$t$个$p$),再把$(p-1)^t$的质因数分解加到对应的$c$即可

这样做会带来一个问题:我们执行$\varphi$时必须要用$n$的质因子$p$,而用到的$p$可能来自最近的几次质因数分解$p-1$,而这几次分解并未完全分解,所以我们对于某些执行$\varphi$多次的$p$要暂缓执行(等待之前的$p-1$被分解完),记$skip_p$表示对于$p$要跳过多少次执行$\varphi$,每次如果可以执行,那么就用$t-1$更新$skip_p$(执行完这次,还要等待$t-1$波分解其他质因子就可以继续了),否则按$skip_p$跳过几次,这样可以保证每次执行$\varphi$都优先使用原来的$p$,最后再把$p-1$分解留到以后使用

数据范围很吓人,可是这样是挺快的2333(因为如果要执行$\varphi$一次就是$\min(c_p,k_p)$,所以这两个数都减小得很快)

 

2018.3.28补充一些东西

 

$\varphi\left(\prod\limits_{i=1}^kp_i^{a_i}\right)=\prod\limits_{i=1}^k\varphi\left(p_i^{a_i}\right)=\prod\limits_{i=1}^kp_i^{a_i-1}\left(p_i-1\right)$

 

第一次取$\varphi$,我们可以对每个质因数分开考虑,之后的取$\varphi$操作就要小心了,如果我们对原来的$p_i$执行$\varphi$,由此产生的$p_i-1$分解之后会加到更小的$p_i$上

 

所以,①我们要从小到大枚举$p_i$做$\varphi$操作(因为$p_i-1$分解成更小的质数)②一次性对$p_i$做完$t$次$\varphi$之后,接下来如果当前没有$p_i$这个因子,我们要跳过这些操作(总共跳过$t-1$次)而不是直接把$k_{p_i}-1$(因为接下来同一阶段的其他的$p_i-1$分解之后有可能落到这里,我们不能忽略掉这些“新来的”$p_i$)

 

#include<stdio.h>
typedef long long ll;
const int T=1000000;
int p[1000010],f[1000010];
ll c[1000010],k[1000010],skip[1000010];
ll min(ll a,ll b){return a<b?a:b;}
int main(){
	int m,M,i,j,x;
	ll t;
	bool flag;
	for(i=2;i<=T;i++){
		if(f[i]==0){
			M++;
			p[M]=i;
			f[i]=i;
		}
		for(j=1;p[j]<=f[i]&&p[j]*i<=T&&j<=T;j++)f[p[j]*i]=p[j];
	}
	scanf("%d",&m);
	while(m--){
		scanf("%d",&x);
		scanf("%I64d",c+x);
	}
	scanf("%I64d",&t);
	for(i=1;i<=T;i++)k[p[i]]=t;
	do{
		flag=0;
		for(i=1;i<=T;i++){
			x=p[i];
			if(c[x]){
				if(k[x]==0)continue;
				t=min(c[x],k[x]);
				c[x]-=t;
				k[x]-=t;
				skip[x]+=t-1;
				flag=1;
				x--;
				while(x>1){
					c[f[x]]+=t;
					x/=f[x];
				}
			}else if(skip[x])
				skip[x]--;
			else if(k[x])
				k[x]--;
		}
	}while(flag);
	x=0;
	for(i=1;i<=T;i++){
		if(c[p[i]])x++;
	}
	printf("%d\n",x);
	for(i=1;i<=T;i++){
		if(c[p[i]])printf("%d %I64d\n",p[i],c[p[i]]);
	}
}

转载于:https://www.cnblogs.com/jefflyy/p/8660363.html

TypeError: iteration over a 0-d tensor是一个报错信息,意思是试图在一个零维张量上进行迭代。这种错误通常发生在使用TensorFlow或PyTorch等深度学习框架时。零维张量是一个标量,它不具有可迭代的特性,因此无法进行迭代操作。 通常,解决这个问题的方法是检查你的代码中是否有对零维张量进行迭代的操作。可能的原因是你错误地将零维张量视为可迭代对象,或者在某些操作中出现了错误的维度。 为了修复这个错误,你可以检查你的代码中涉及到的所有张量,并确保它们具有正确的维度。另外,你还可以查看框架的文档或寻求社区的帮助,以了解如何正确处理零维张量的情况。 总结一下,当你遇到TypeError: iteration over a 0-d tensor的错误时,你应该检查你的代码中是否有对零维张量进行迭代的操作,并确保所有张量都具有正确的维度。如果有需要,你可以查阅文档或寻求社区的帮助来解决这个问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [JQuery报错Uncaught TypeError: Illegal invocation的处理方法](https://download.youkuaiyun.com/download/weixin_38666230/13034647)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [TypeError: missing 1 required keyword-only argument-python中的报错问题](https://download.youkuaiyun.com/download/weixin_38590567/13741352)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [TypeError: iteration over a 0-d tensor 的一种可能原因和解决方法](https://blog.youkuaiyun.com/qq_34342853/article/details/124930920)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值