UVA 679 Dropping BAlls (二叉树编号)模拟

本文探讨了一种二叉树结构中小球下落的模拟问题,并提供了一个优化后的算法实现。通过分析小球编号的奇偶性,简化了原始的暴力模拟方法,有效地减少了计算步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

直接暴力模拟会超时,这是超时代码

#include<cstdio>
#include<cstring>
const int maxn=20;
int s[1<<maxn];
int main()
{
    int D,I;
   // scanf("%d",&D);
    while(scanf("%d%d",&D,&I)!=EOF)
    {
      //  if(D==-1) return 0;
        memset(s,0,sizeof(s));
        int k,n=(1<<D)-1;
        for(int i=0;i<I;i++)
        {
            k=1;
            for(;;)
            {
                s[k]=!s[k];
                k=s[k]?k*2:k*2+1;
                if(k>n) break;
            }
        }
        printf("%d\n",k/2);
    }
    return 0;
}

需要根据小球编号的奇偶性找规律直接模拟最后一个小球的路线

每个小球都会落在根节点上,因此前两个小球必然是一个在左子树一个在右子树,对于那些落在根节点左子树的小球来说,只需知道该小球是第几个落在根的左子树里的,就可以知道他下一步往左还是 往右了,以此类推,知道小球落在叶子上。

下面是AC代码

#include<cstdio>
#include<cstring>
#include<iostream>
using namespace std;
int main()
{
    int D,T,I;
    cin>>T;
    while(1)
    {
        cin>>D;
        if(D==-1) break;
        cin>>I;
        int k=1;
        for(int i=0;i<D-1;i++)
        {
            if(I%2)
            {
                k=k*2;
                I=(I+1)/2;
            }
            else
            {
                k=k*2+1;
                I/=2;
            }
        }
        cout<<k<<endl;
    }
    return 0;
}

资源下载链接为: https://pan.quark.cn/s/1bfadf00ae14 华为移动服务(Huawei Mobile Services,简称 HMS)是一个全面开放的移动服务生态系统,为企业和开发者提供了丰富的工具和 API,助力他们构建、运营和推广应用。其中,HMS Scankit 是华为推出的一款扫描服务 SDK,支持快速集成到安卓应用中,能够提供高效且稳定的二维码和条形码扫描功能,适用于商品扫码、支付验证、信息获取等多种场景。 集成 HMS Scankit SDK 主要包括以下步骤:首先,在项目的 build.gradle 文件中添加 HMS Core 库和 Scankit 依赖;其次,在 AndroidManifest.xml 文件中添加相机访问和互联网访问权限;然后,在应用程序的 onCreate 方法中调用 HmsClient 进行初始化;接着,可以选择自定义扫描界面或使用 Scankit 提供的默认扫描界面;最后,实现 ScanCallback 接口以处理扫描成功和失败的回调。 HMS Scankit 内部集成了开源的 Zxing(Zebra Crossing)库,这是一个功能强大的条码和二维码处理库,提供了解码、生成、解析等多种功能,既可以单独使用,也可以与其他扫描框架结合使用。在 HMS Scankit 中,Zxing 经过优化,以更好地适应华为设备,从而提升扫描性能。 通常,ScanKitDemoGuide 包含了集成 HMS Scankit 的示例代码,涵盖扫描界面的布局、扫描操作的启动和停止以及扫描结果的处理等内容。开发者可以参考这些代码,快速掌握在自己的应用中实现扫码功能的方法。例如,启动扫描的方法如下: 处理扫描结果的回调如下: HMS Scankit 支持所有安卓手机,但在华为设备上能够提供最佳性能和体验,因为它针对华为硬件进行了
KV Cache Dropping 是一种用于优化大语言模型(LLM)推理过程中内存使用的技术,特别是在处理长序列时减少KV Cache(Key-Value Cache)的存储开销。其核心思想是通过选择性地丢弃(drop)部分KV对,以降低内存占用并提升推理效率,同时尽量不影响模型输出的质量。 ### KV Cache Dropping 的技术原理 在自回归生成任务中,KV Cache 用于存储每个已生成 token 对应的 Key 和 Value 向量,以便在后续的 Attention 计算中快速获取历史信息。随着生成序列的增长,KV Cache 的内存占用也随之线性增长。KV Cache Dropping 通过以下方式缓解这一问题: 1. **基于注意力机制的冗余性**:在实际生成过程中,某些历史 token 对当前 token 的预测影响较小,这些 token 对应的 KV 对可以被视为冗余。通过识别并丢弃这些冗余的 KV 对,可以在不显著影响输出质量的前提下减少内存消耗。 2. **动态筛选机制**:一些 Dropping 策略会根据当前 token 与历史 token 的相关性动态决定是否保留某个 KV 对。例如,通过计算 Query 向量与 Key 向量之间的相似度,若相似度低于一定阈值,则认为该 KV 对对当前 Attention 计算贡献较小,从而选择丢弃。 3. **静态策略**:某些方法采用固定的策略,例如每隔一定步数丢弃部分 KV 对,或者仅保留最近的 N 个 token 的 KV 对。 ### 应用场景 KV Cache Dropping 主要适用于以下几种场景: - **长文本生成任务**:在生成较长文本(如文章、对话等)时,KV Cache 的内存占用会显著增加。Dropping 技术可以有效控制内存使用,使模型在有限硬件资源下仍能处理长序列。 - **边缘设备推理**:在资源受限的设备(如移动设备或嵌入式系统)上部署大语言模型时,内存优化尤为重要。KV Cache Dropping 可以帮助降低内存需求,提高推理效率。 - **实时推理服务**:在需要低延迟的推理服务中,减少 KV Cache 的大小可以加快 Attention 计算,从而提升整体响应速度。 ### 示例代码 以下是一个简化的 KV Cache Dropping 实现逻辑,假设我们使用基于相似度的动态筛选策略: ```python import torch import torch.nn.functional as F def drop_kv_cache(query, key, value, threshold=0.5): """ 根据Query和Key之间的相似度决定是否丢弃部分KV对。 :param query: 当前Query向量 (batch_size, head_num, seq_len, dim) :param key: 历史Key向量 (batch_size, head_num, seq_len, dim) :param value: 历史Value向量 (batch_size, head_num, seq_len, dim) :param threshold: 相似度阈值 :return: 经过Drop后的Key和Value """ # 计算Query与Key之间的相似度(点积) similarity = torch.matmul(query, key.transpose(-2, -1)) # (batch_size, head_num, seq_len, seq_len) # 取最后一个Query与其他Key的相似度 last_similarity = similarity[:, :, -1, :] # (batch_size, head_num, seq_len) # 计算平均相似度 avg_similarity = last_similarity.mean(dim=1) # (batch_size, seq_len) # 判断是否保留每个KV对 mask = avg_similarity > threshold # 应用mask,保留符合条件的KV对 new_key = key[:, :, mask, :] new_value = value[:, :, mask, :] return new_key, new_value ``` ### 相关问题 1. KV Cache Dropping 技术相比其他 KV Cache 优化方法有哪些优势? 2. 如何评估 KV Cache Dropping 对生成质量的影响? 3. 在实际部署中,如何动态调整 KV Cache Dropping 的阈值? 4. KV Cache Dropping 是否会影响模型的推理速度? 5. 有哪些开源框架或工具支持 KV Cache Dropping 技术? [^2]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值