Euler函数

欧拉函数φ(n)表示小于等于n的正整数中与n互质的数的数量。对于质数的幂,φ(n)可以用公式计算;若m, n互质,则φ(mn)=φ(m)φ(n)。可通过线性筛法在O(n)时间内求解φ(n)。" 122794945,10966956,旧主机变身个人服务器:Ubuntu20.04安装与优化指南,"['服务器', 'Ubuntu', 'Linux', '系统优化', 'SSH']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

欧拉函数:φ(n)\varphi (n)φ(n) 小于等于n的数中与n互质的数的个数

φ(1)=1\varphi (1)=1φ(1)=1(小于等于1的正整数中唯一和1互质的数就是1本身)。

若n是质数p的k次幂, φ(n)=φ(pk)=pk−pk−1=(p−1)pk−1\varphi (n)=\varphi (p^{k})=p^{k}-p^{k-1}=(p-1)p^{k-1}φ(n)=φ(pk)=pkpk1=(p1)pk1,因为除了p的倍数外,其他数都跟n互质。

若 p 是质数 φ(p)=p−1\varphi(p)=p-1φ(p)=p1

欧拉函数是积性函数,即是说若m,n互质,φ(mn)=φ(m)φ(n)\varphi (mn)=\varphi (m)\varphi (n)φ(mn)=φ(m)φ(n)

n=p1k1p2k2⋯prkrn=p_1^{k_1}p_2^{k_2}\cdots p_r^{k_r}n=p1k1p2k2prkr

φ(n)=n∏i=1r(1−1pi)\varphi (n)=n\prod _{i=1}^r(1-{\frac {1}{p_i}})φ(n)=ni=1r(1pi1)

所以,能通过O(n\sqrt nn )的时间,求出φ(n)\varphi (n)φ(n)

template<class T>
T euler(T n){
    T res=n;
    for(int i=2;i*i<=n;++i){//任何数最多只有一个大于根号n质因子。
        if(n%i==0){
            res-=res/i;
            while(n%i==0)n/=i;//将因子i全部除去,防止合数被筛
        }
    }
    if(n>1)res-=res/n;//若有大于根号n的质因子
    return res;
}

线性筛欧拉函数:

  1. φ(p)=p−1\varphi(p)=p-1φ(p)=p1
  2. φ(i×p)=p×φ(i),(imod&ThinSpace;&ThinSpace;p=0)\varphi(i\times p)=p\times\varphi (i) ,(i\mod p = 0)φ(i×p)=p×φ(i),(imodp=0)
  3. φ(i×p)=φ(p)×φ(i)=(p−1)×φ(i),(imod&ThinSpace;&ThinSpace;p≠0)\varphi(i\times p)=\varphi(p)\times\varphi (i)=(p-1)\times \varphi(i), (i\mod p\neq 0)φ(i×p)=φ(p)×φ(i)=(p1)×φ(i),(imodp̸=0
const int MAXN=3e6+8;
int phi[MAXN];
int prime[MAXN],cnt;
bool nprime[MAXN];
void getphi(){
    phi[1]=1;
    for(int i=2;i<MAXN;++i){
        if(!nprime[i]){
            prime[++cnt]=i;
            phi[i]=i-1;//素数的phi值等于p-1
        }
        for(int j=1;j<=cnt&&prime[j]*i<MAXN;++j){
            nprime[prime[j]*i]=1;
            if(i%prime[j]==0){
                phi[prime[j]*i]=prime[j]*phi[i];// i是p的倍数
                break;
            }
            else phi[prime[j]*i]=phi[i]*(prime[j]-1);//i,p互质
        }
    }
}
### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值