笔记(数论)

本文介绍了秦九韶算法、卡特兰数的计算方法、求最小公倍数与最大公约数的实现,以及逆元的两种求法。这些算法在解决多项式计算、组合数学、数论等问题时非常实用。

目录

1.秦九韶算法

2.卡特兰数

3.lcm与gcd


1.秦九韶算法

把一个n次多项式

改写成如下形式:

求多项式的值时,首先计算最内层括号内一次多项式的值,即

然后由内向外逐层计算一次多项式的值,即

这样,求n次多项式f(x)的值就转化为求n个一次多项式的值。

结论:对于一个n次多项式,至多做n次乘法和n次加法。 

2.卡特兰数

f[0]=f[1]=1;
for(int i=2;i<=n;i++)
for(int j=0;j<i;j++)
f[i]+=f[j]*f[i-j-1]

3.lcm与gcd

int gcd(int a,int b){
     if(b==0)return a;
     return gcd(b,a%b);
}
int LCM(int a,int b){
    return a*b/gcd(a,b);
}
  • 最小公倍数等于两个数的乘积除以gcd;
  • 对于两个正整数a,b,设gcd(a,b)=k,则存在gcd(a/k,b/k)=1

4.求逆元

线性:

inv[0]=inv[1]=1;
	for(int i=2;i<=n;i++){
		inv[i]=(mod-mod/i)*inv[mod%i]%mod;
	}

费马小定理:

ll gdx(int fz,int fm){//分子  分母
	return (fz%mod)*(qpow(fm,mod-2)%mod)%mod;
}

 

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值