hdu 4027 Can you answer these queries? 线段树

本文介绍了一种基于区间操作和查询的算法实现方法,通过构建特殊的数据结构来处理区间内的数值变化,包括将区间内数值转换为其平方根的操作及求和查询。重点在于通过减少更新次数来优化效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题意:有一个长度为n的序列,有两种操作,第一种把在区间[x,y]之内的所有数,变成它的平方根。第二种操作,查询这个区间内的和。
思路:开始想了怎么区间更新,并没有想法,然后一想,卧槽,每个节点最多只会更新8次左右呀,直接更新就好了,于是暴力更新。统计1的个数,区间为1就不更新了。
坑点:x可能会大于y

http://acm.hdu.edu.cn/showproblem.php?pid=4027

#include <cstdio>
#include <cmath>
#include <iostream>

using namespace std;

const int MAXN = 1e5+5;

struct Node {
    int x,y;
    int k; //区间内1的个数;
    long long sum; //区间内总和;
}t[MAXN<<2];

int n,m;

void Push_Up(int rt) {
    t[rt].sum = t[rt<<1].sum + t[rt<<1|1].sum;
    t[rt].k = t[rt<<1].k + t[rt<<1|1].k;
}

void Build(int x,int y,int rt) {
    t[rt].x = x; t[rt].y = y;
    if(t[rt].x == t[rt].y) {
        scanf("%I64d",&t[rt].sum);

        if(t[rt].sum == 1)t[rt].k = 1;
        else t[rt].k = 0;

        return ;
    }
    int mid = (x + y) >> 1;
    Build(x,mid,rt<<1);
    Build(mid+1,y,rt<<1|1);
    Push_Up(rt);
}

void Update(int rt,int left,int right) {
    if((t[rt].y -t[rt].x + 1) == t[rt].k) return ;
    if(t[rt].y == t[rt].x) {
        t[rt].sum = (long long)sqrt(t[rt].sum);
        if(t[rt].sum == 1) {
            t[rt].k = 1;
        }
        return ;
    }
    int mid = (t[rt].x + t[rt].y) >> 1;
    if(mid >= left) {
        Update(rt<<1,left,right);
    }
    if(mid < right) {
        Update(rt<<1|1,left,right);
    }
    Push_Up(rt);
}

long long Query(int rt,int left,int right) {
    if(t[rt].x >= left && t[rt].y <= right) {
        return t[rt].sum;
    }
    long long ans = 0;
    int mid = (t[rt].x + t[rt].y) >> 1;
    if(mid >= left) {
        ans += Query(rt<<1,left,right);
    }
    if(mid < right) {
        ans += Query(rt<<1|1,left,right);
    }
    return ans;
}

void input() {
    Build(1,n,1);
    scanf("%d",&m);
    int ok,left,right;
    for(int i = 1 ; i <= m ; i ++) {
        scanf("%d %d %d",&ok,&left,&right);
        if(left > right) swap(left,right);
        if(ok == 0) {
            Update(1,left,right);
        }
        else {
            printf("%I64d\n",Query(1,left,right));
        }
    }
}

void solve() {

}

int main(void) {
    //freopen("a.in","r",stdin);
    int CASENUM = 1;
    while(~scanf("%d",&n)) {
        printf("Case #%d:\n",CASENUM++);
        input();
        solve();
        puts("");
    }
}
### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值