G - B-number HDU - 数位DP

本文介绍了一道经典的数位DP题目,目标是计算在给定范围内包含子串“13”且能被13整除的数字的数量。通过详细解析数位DP算法,包括状态定义、记忆化搜索以及递归实现,展示了如何高效解决此类问题。
  • G - B-number

  •  HDU - 3652 
  • 题意:A wqb-number, or B-number for short, is a non-negative integer whose decimal form contains the sub- string "13" and can be divided by 13. For example, 130 and 2613 are wqb-numbers, but 143 and 2639 are not. Your task is to calculate how many wqb-numbers from 1 to n for a given integer n.太简单不翻译。
  • 思路: 数位dp非常模板的题注意按照题意修改各个维度代表的含义即可dp
  • 本题第一维一如既往的传递数位第二维传递的是构造一个数的过程中取余13的结果第三维是过程中是否出现过13第四维传递的是上一位是否为1。刚开始少了第四维导至错误,必须要深刻理解dp记忆化的是在当前条件下具有相同状态的数字,只有这样后面才能不用搜索直接取用dp里面的值,所以一定要准确的记忆化,对应这当前题意的限制设置dp数组的维数与含义。
  • #include<bits/stdc++.h>
    using namespace std;
    #define maxn 20
    #define ll long long
    ll dp[maxn][15][2][2];
    ll num[maxn],n;
    ll dfs(int len,bool if13,bool pre,int md,bool limit)
    {
        if(len==0)return if13&&md==0;
        if(!limit&&dp[len][md][if13][pre])
            return dp[len][md][if13][pre];
        ll ans=0,up=limit?num[len]:9;
        for(int i=0; i<=up; i++)
        {
            ll temp=(md*10+i)%13;
            if(if13||(pre&&i==3))
                ans+=dfs(len-1,1,i==1,temp,limit&&i==up);
            else
                ans+=dfs(len-1,0,i==1,temp,limit&&i==up);
        }
        if(!limit)
            dp[len][md][if13][pre]=ans;
        return ans;
    }
    ll solve(ll n)
    {
        int cnt=0;
        while(n)
        {
            num[++cnt]=n%10;
            n/=10;
        }
        return dfs(cnt,0,0,0,1);
    }
    int main()
    {
        ios::sync_with_stdio(false);
        while(cin>>n)
            cout<<solve(n)<<endl;
        return 0;
    }
    

     

训练数据保存为deep_convnet_params.pkl,UI使用wxPython编写。卷积神经网络(CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,在计算机视觉、语音识别、自然语言处理等多个领域有广泛应用。其核心设计理念源于对生物视觉系统的模拟,主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。 **1. 局部感知与卷积操作** 卷积层是CNN的基本构建块,使用一组可学习的滤波器对输入图像进行扫描。每个滤波器在图像上滑动,以局部区域内的像素值与滤波器权重进行逐元素乘法后求和,生成输出值。这一过程能够捕获图像中的边缘、纹理等局部特征。 **2. 权重共享** 同一滤波器在整个输入图像上保持相同的权重。这显著减少了模型参数数量,增强了泛化能力,并体现了对图像平移不变性的内在假设。 **3. 池化操作** 池化层通常紧随卷积层之后,用于降低数据维度并引入空间不变性。常见方法有最大池化和平均池化,它们可以减少模型对微小位置变化的敏感度,同时保留重要特征。 **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起。随着网络深度增加,每一层逐渐提取更复杂、更抽象的特征,从底层识别边缘、角点,到高层识别整个对象或场景,使得CNN能够从原始像素数据中自动学习到丰富的表示。 **5. 激活函数与正则化** CNN中使用非线性激活函数来引入非线性表达能力。为防止过拟合,常采用正则化技术,如L2正则化和Dropout,以增强模型的泛化性能。 **6. 应用场景** CNN在诸多领域展现出强大应用价值,包括图像分类、目标检测、语义分割、人脸识别、图像生成、医学影像分析以及自然语言处理等任务。 **7. 发展与演变** CNN的概念起源于20世纪80年代,其影响力在硬件加速和大规模数据集出现后真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构推动了CNN技术的快速发展。如今,CNN已成为深度学习图像处理领域的基石,并持续创新。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值