Revenge of Fibonacci HDU - 4099 (Trie树运用)

题意:

        给你一个数,这个数是斐波那契数列中的一个数的前缀,找出这个前缀的最小下标. 且这个下标如果超过了10W还没有符合要求的话,就输出-1.且输入数不会超过40位,且没有前导0.

分析:

       直接思路那就是把前10W个斐波那契数列都搞出来构建字典树,然后对每个输入串判断该字典即可. 这种想法不可行~,下标为10W的斐波那契数大概有几万位,不可能这样加的.

我们只存前60位.50-60位可能会有进位,但是概率来说进位影响不到前40位.

如果新出来的数是61位了,我们只需对它对它进行截取最后一位,同样,和它即将相加的另外一个数末尾一位也截一位.

 

#include<bits/stdc++.h>
using namespace std;
const int maxn = 60*100000+1111;
void add(char *a,char *b,char *c)
{
    int len1 = strlen(a);
    int len2 = strlen(b);
    int i=len1-1,j=len2-1;
    int carry = 0;
    int k = 0;
    char tmp[111];
    while(i>=0||j>=0)
    {
        int x,y,z;
        if(i<0)x=0;
        else x=a[i]-'0';
        if(j<0)y=0;
        else y=b[j]-'0';

        z=x+y+carry;
        tmp[k++]=z%10+'0';
        carry=z/10;
        i--;
        j--;
    }
    if(carry)tmp[k++]=carry+'0';
    for(int i=0;i<k;i++)c[i]=tmp[k-1-i];
    c[k]=0;
}

struct node
{
    int ch[maxn][10];
    int v[maxn];
    int sz;

    void init()
    {
        sz=1;
        memset(ch[0],0,sizeof(ch[0]));
        memset(v,-1,sizeof v);
    }

    void insert(char *s,int vv)
    {
        int u=0,n=strlen(s);
        for(int i=0;i<n && i<40;i++)
        {
            int id=s[i]-'0';
            if(ch[u][id]==0)
            {
                ch[u][id]=sz;
                memset(ch[sz],0,sizeof ch[sz]);
                v[sz]=-1;
                sz++;
            }
            u=ch[u][id];
            if(v[u]<0)
               v[u]=vv;
        }

    }

    int find(char *s)
    {
        int n=strlen(s),u=0;
        for(int i=0;i<n;i++)
        {
            int id=s[i]-'0';
            if(ch[u][id]==0)
                return -1;
            u=ch[u][id];
        }
        return v[u];
    }
}trie;

char str[3][111];
int main()
{
    trie.init();
    ///初始化前100000个F数
    str[0][0]='1';
    str[0][1]=0;
    trie.insert(str[0],0);
    str[1][0]='1';
    str[1][1]=0;
    for(int i=2;i<100000;i++)
    {
        int len1=strlen(str[0]);
        int len2=strlen(str[1]);
        if(len2>60)
        {
            str[0][len1-1]=0;
            str[1][len2-1]=0;
        }
        add(str[0],str[1],str[2]);

        trie.insert(str[2],i);
        strcpy(str[0],str[1]);
        strcpy(str[1],str[2]);
    }


    int t;
    cin>>t;
    for(int kase=1;kase<=t;kase++)
    {
        scanf("%s",str[0]);
        int ans=trie.find(str[0]);
        printf("Case #%d: %d\n",kase,ans);
    }
}

 

 

 

### 使用Transformer模型进行图像分类的方法 #### 方法概述 为了使Transformer能够应用于图像分类任务,一种有效的方式是将图像分割成固定大小的小块(patches),这些小块被线性映射为向量,并加上位置编码以保留空间信息[^2]。 #### 数据预处理 在准备输入数据的过程中,原始图片会被切分成多个不重叠的patch。假设一张尺寸为\(H \times W\)的RGB图像是要处理的对象,则可以按照设定好的宽度和高度参数来划分该图像。例如,对于分辨率为\(224\times 224\)像素的图像,如果选择每边切成16个部分的话,那么最终会得到\((224/16)^2=196\)个小方格作为单独的特征表示单元。之后,每一个这样的补丁都会通过一个简单的全连接层转换成为维度固定的嵌入向量。 ```python import torch from torchvision import transforms def preprocess_image(image_path, patch_size=16): transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), # 假设目标分辨率是224x224 transforms.ToTensor(), ]) image = Image.open(image_path).convert('RGB') tensor = transform(image) patches = [] for i in range(tensor.shape[-2] // patch_size): # 高度方向上的循环 row_patches = [] for j in range(tensor.shape[-1] // patch_size): # 宽度方向上的循环 patch = tensor[:, :, i*patch_size:(i+1)*patch_size, j*patch_size:(j+1)*patch_size].flatten() row_patches.append(patch) patches.extend(row_patches) return torch.stack(patches) ``` #### 构建Transformer架构 构建Vision Transformer (ViT),通常包括以下几个组成部分: - **Patch Embedding Layer**: 将每个图像块转化为低维向量; - **Positional Encoding Layer**: 添加绝对或相对位置信息给上述获得的向量序列; - **Multiple Layers of Self-Attention and Feed Forward Networks**: 多层自注意机制与前馈神经网络交替堆叠而成的核心模块; 最后,在顶层附加一个全局平均池化层(Global Average Pooling)以及一个多类别Softmax回归器用于预测类标签。 ```python class VisionTransformer(nn.Module): def __init__(self, num_classes=1000, embed_dim=768, depth=12, num_heads=12, mlp_ratio=4., qkv_bias=False, drop_rate=0.): super().__init__() self.patch_embed = PatchEmbed(embed_dim=embed_dim) self.pos_embed = nn.Parameter(torch.zeros(1, self.patch_embed.num_patches + 1, embed_dim)) self.cls_token = nn.Parameter(torch.zeros(1, 1, embed_dim)) dpr = [drop_rate for _ in range(depth)] self.blocks = nn.Sequential(*[ Block( dim=embed_dim, num_heads=num_heads, mlp_ratio=mlp_ratio, qkv_bias=qkv_bias, drop=dpr[i], ) for i in range(depth)]) self.norm = nn.LayerNorm(embed_dim) self.head = nn.Linear(embed_dim, num_classes) def forward(self, x): B = x.shape[0] cls_tokens = self.cls_token.expand(B, -1, -1) x = self.patch_embed(x) x = torch.cat((cls_tokens, x), dim=1) x += self.pos_embed x = self.blocks(x) x = self.norm(x) return self.head(x[:, 0]) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值