2021-剪枝TRN-M

该博客介绍了一种利用广度优先搜索(BFS)解决数学问题的方法,具体是寻找大于0且仅由0和1组成的、能被给定自然数整除的最小数M。通过从数字1开始,逐步构造只包含0和1的数字并检查是否为N的倍数,最终找到符合条件的最小M。博客中提供了C++代码实现,特别注意了处理特殊情况如N等于1的情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

https://vjudge.net/contest/425323#problem/M

原题复制粘贴

给定一个自然数N,找出一个M,使得M > 0且M是N的倍数,并且M的10进制表示只包含0或1。求最小的M。
例如:N = 4,M = 100。

思路

感谢启发 参考文章

首先说框架。
先看存储。由于最后的数字可能非常非常大,longlong也不行,所以要用字符串来保存。
再看遍历方法。显然,原来的数字一倍两倍的做乘法是很慢的,我们实际上只要直接枚举含有0/1的数字,然后判断是不是n的倍数就好
遍历的时候,从1开始,然后是10,11,100,101,…
明显要用bfs了。

代码

#include <bits/stdc++.h>

using namespace std;
int n;

struct node
{
    long long num;
    int size;
    char s[50];

};

void bfs()
{
    queue<node>q;
    node now;
    now.num=1,now.size=1,now.s[1]='1';
    q.push(now);
    int i;
    while(!q.empty())
    {
        now=q.front();
        q.pop();
        now.num=now.num*10%n;
        now.s[++now.size]='0';
        if(now.num%n==0)
        {
            for(i=1;i<=now.size;i++)
                cout<<now.s[i];
            printf("\n");
            return;
        }

        q.push(now);

        now.num=(now.num+1)%n;
        now.s[now.size]='1';
        if(now.num%n==0)
        {
            for(i=1;i<=now.size;i++)
                cout<<now.s[i];
            printf("\n");
            return;
        }

        q.push(now);

    }
}
int main()
{
    scanf("%d",&n);
    if(n==1) printf("1\n");///注意特殊情况处理
    bfs();
    return 0;
}

### 关于人工智能导论中的剪枝算法实验 #### 实验目的 本实验旨在理解并实践剪枝技术在决策树构建过程中的作用。通过实际操作,掌握如何利用剪枝减少过拟合现象的发生,提高模型泛化能力。 #### 实验环境配置 - Python版本:3.x - 主要库依赖: - `scikit-learn`:用于数据处理及模型建立 - `matplotlib`:可视化工具 安装所需包可以通过pip命令完成: ```bash pip install scikit-learn matplotlib ``` #### 数据准备 采用UCI Machine Learning Repository提供的鸢尾花(Iris)数据集作为样本数据源。该数据集中包含了三种不同类型的鸢尾花测量值,非常适合用来做分类任务的学习材料[^1]。 加载数据集代码如下所示: ```python from sklearn.datasets import load_iris import pandas as pd data = load_iris() df = pd.DataFrame(data.data, columns=data.feature_names) df['target'] = data.target print(df.head()) ``` #### 构建未剪枝的决策树模型 首先创建一个不带任何预剪枝条件的基础决策树模型,并观察其结构复杂度以及对训练集的表现情况。 ```python from sklearn.tree import DecisionTreeClassifier from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score X_train, X_test, y_train, y_test = train_test_split( df[data.feature_names], df['target'], test_size=0.3) clf_unpruned = DecisionTreeClassifier(random_state=42) clf_unpruned.fit(X_train, y_train) y_pred = clf_unpruned.predict(X_test) acc_unpruned = accuracy_score(y_test, y_pred) print(f'Unpruned Tree Accuracy on Test Set: {acc_unpruned:.4f}') ``` #### 应用成本复杂度剪枝(Cost Complexity Pruning) 引入成本复杂度参数alpha控制剪枝强度,寻找最优alpha值使得模型既不过分简单也不过分复杂。 ```python path = clf_unpruned.cost_complexity_pruning_path(X_train, y_train) ccp_alphas, impurities = path.ccp_alphas, path.impurities clfs = [] for ccp_alpha in ccp_alphas: clf = DecisionTreeClassifier(random_state=42, ccp_alpha=ccp_alpha) clf.fit(X_train, y_train) clfs.append(clf) accuracies = [accuracy_score(y_test, clf.predict(X_test)) for clf in clfs] best_idx = accuracies.index(max(accuracies)) optimal_ccp_alpha = ccp_alphas[best_idx] print(f'Optimal CCP Alpha Value Found: {optimal_ccp_alpha}') final_clf = DecisionTreeClassifier(ccp_alpha=optimal_ccp_alpha, random_state=42) final_clf.fit(X_train, y_train) y_final_pred = final_clf.predict(X_test) acc_final = accuracy_score(y_test, y_final_pred) print(f'Pruned Tree (CCP={optimal_ccp_alpha}) Accuracy on Test Set: {acc_final:.4f}') ``` #### 结果分析与讨论 对比未经修剪前后的决策树模型表现差异,探讨剪枝对于防止过拟合的重要性及其带来的性能提升效果。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值