【洛谷】P3383 【模板】线性筛素数(埃拉托斯特尼筛法) 题解

本文详细介绍了如何使用线性筛素数算法(埃拉托斯特尼筛法)解决洛谷P3383模板题。通过实例解析,阐述了算法原理与实现步骤,包括数组初始化、遍历标记合数及判断输入数是否为素数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【洛谷】P3383 【模板】线性筛素数(埃拉托斯特尼筛法) 题解

原题地址:https://www.luogu.org/problem/P3383

题目描述

如题,给定一个范围N,你需要处理M个某数字是否为质数的询问(每个数字均在范围1-N内)

输入输出格式

输入格式:

第一行包含两个正整数N、M,分别表示查询的范围和查询的个数。

接下来M行每行包含一个不小于1且不大于N的整数,即询问该数是否为质数。

输出格式:

输出包含M行,每行为Yes或No,即依次为每一个询问的结果。

输入输出样例

输入样例#1:

100 5
2
3
4
91
97

输出样例#1:

Yes
Yes
No
No
Yes

说明

时空限制:500ms 128M

数据规模:

对于30%的数据:N<=10000,M<=10000

对于100%的数据:N<=10000000,M<=100000

样例说明:

N=100,说明接下来的询问数均不大于100且不小于1。

所以2、3、97为质数,4、91非质数。

故依次输出Yes、Yes、No、No、Yes。

思路:
1、这道题不能用我们平时的求素数方法,即直接遍历n个数,对每个数再遍历到sqrt(n),时间复杂度是O(n^(3/2)),时间限制是500ms,肯定超时。

2、这里用的是一般筛法(埃拉托斯特尼筛法),基本思想:素数的倍数一定不是素数。

3、洛谷对输入输出的要求不高,这道题的m个数可以输入一个就输出一个,亦可以等全部输入完再一起输出,在这里我采用的是第二种方法。

4、用数组a[i]保存输入的m个数,数组b[i]用来判断是否为素数,0表示为不是素数,1表示是素数,先全部初始化为1。0和1均不是素数,然后从2开始,把2的倍数均标记为0,即不是素数,一直到大于n,然后从下一个素数3开始,进行同样的处理,到最后,数组中为1的即为素数。


代码如下:

#include <iostream>
#include <cstdio>
#include <algorithm>
#include <cstring>
using namespace std; 
const int N=1e7;
//n表示范围,m表示个数,数组a[i]表示输入的数、数组b[i],0表示不是为素数,1表示是素数 
int n,m,x,a[N],b[N];	
int main() 
{
	scanf("%d%d",&n,&m);
	for(int i=1;i<=m;i++)	//输入m个数 
		scanf("%d",&a[i]);
	memset(b,1,sizeof(b));	//初始化,把所有的数标记为是素数 
	b[0]=b[1]=0;	//0和1不是素数 
	for(int i=2;i<=n;i++)	//从2开始遍历 
	{
		if(b[i])	//如果标记为素数,即未改变初始化的值 
		{
			for(int j=i+i;j<=n;j+=i)	//把所有该数的倍数标记为0,即不是素数 
				b[j]=0;
		}
	}
	for(int i=1;i<=m;i++)
	{
		if(b[a[i]])	//如果输入的数是素数,输出Yes 
			printf("Yes\n");
		else	//否则输出No 
			printf("No\n");
	}
	return 0;
}
### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值