中北大学ACM 5/12 T6 CSY的幸福

题面:

给出一个整数N,求有4^N个因数的最小整数,结果对998244353取余,找到这个数字就能让CSY获得幸福。(N<=100000)


 


(原题并不是CSY)去打AKM比赛,6道水题,2道蓝题,2道紫题,这道题大概在紫题水平?(我太菜了)

平常我AKM压得贼(bu)稳【雾】,考试翻车加爆炸只打出来4道(丢人)

看一眼题,第一个思路是质因数分解,因子个数即为每个质数的指数+1。

首先把尽可能多的质数塞进一个小根堆里,

4^N可以化为2^2N,递推做法,每次为了让N走一位,把堆顶取出,让答案乘以这个数,

然后把取出的数乘以他本身塞回小根堆里.

 

这样做的原因是,设ans=p1^c1 + p2^c2 + p3^c3...pn^cn;

2^2N = (c1+1)(c2+1)(c3+1).....(cn+1)

因为左边的2^2N我们大概可以猜到右边是(1+1)(3+1)(7+1)(15+1)之类的形式

2^1 =(1+1) 所以我们选最小质因子的2

2^2=(1+1)(1+1)=(3+1) (3+1)意味着乘以2^2,(1+1)(1+1)意味着乘以3, 3更小所以选3.

2^3= (1+1)(1+1)(1+1) = (3+1)(1+1) 依序是乘以5或者乘以2^2,后者更小所以是(1+1)(3+1)

模拟就模拟到这

上面的那个堆存的就是为了让n走一位可以乘以哪些数,乘完了往回塞乘以它本身的本质是让存进去的数的指数为2的次方

(1+1)变成(3+1)乘以的就是2^2,(3+1)变成(7+1)乘以的是2^4

正确性得证。

维护优先队列的时复为N logN,复杂度正确。

考试的时候脑子一抽质数筛只筛到200000,前面的质数指数过大爆掉LONGLONG,到死没有发现BUG。

(结论就是CSY无法获得幸福)

代码:

#include<bits/stdc++.h>
#define ll long long
#define p 998244353

using namespace std ;

long long pri[500010],psz,tag[500010],n;
void prime(){
    for(int i=2;i<=500000;i++) { //报血海深仇 
        if(!tag[i]) {
            pri[++psz]=i;
            tag[i]=i;
        }
        for(int j=1;j<=psz;j++) {
            if(pri[j] > tag[i] || pri[j] > n/i) break;
            tag[i * pri[j]] = pri[j];
        }
    } 
}

priority_queue<long long> q;//我忘记小根堆怎么写了,存个负数水一下 = = 

int main(){
    cin>>n;
    n*=2;
    prime();
    for(int i=1;i<=psz;i++){
        q.push(-pri[i]);
    }
    long long ans=1;
    for(int i=1;i<=n;i++){
        long long now=q.top();
        now*=-1;
        q.pop();
        ans*=now;
        ans%=p;
        q.push(-(now*now));
    }
    cout<<ans<<endl;
    return 0;
}

TAG:SIN_XIII ⑨

 

转载于:https://www.cnblogs.com/SINXIII/p/10857494.html

### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值