hihoCoder 1558 H国的身份证号码I(dfs)

时间限制:10000ms
单点时限:1000ms
内存限制:256MB

描述

H国的身份证号码是一个N位的正整数(首位不能是0)。此外,由于防伪需要,一个N位正整数是合法的身份证号码当且仅当每位数字都小于等于K,并且任意相邻两位数字的乘积也小于等于K。

例如对于K=5, 101、211、210等都是合法的号码,而106、123、421等都是非法的号码。

给定一个正整数N以及K,请从小到大输出所有合法的号码。  

输入

两个整数N和K。

对于80%的数据,1 ≤ N ≤ 6。

对于100%的数据,1 ≤ N ≤ 9,1 ≤ K ≤ 5。

输出

按从小到大的顺序输出所有合法的N位号码,每个号码占一行。

样例输入
2 4
样例输出
10  
11  
12  
13  
14  
20  
21  
22  
30  
31  
40  
41

循环会超时。

由题意可知,N位数的每一位都<=k,N最大为9,可搜索N位数的每一位求解,从第一位开始dfs,用sum记录搜索到的数的值,一直到第N位结束搜索,符合条件的话就输出结果sum,搜索结束后记得将sum减去最后搜索的那一位,然后回溯继续进行搜素咯。


#include <bits/stdc++.h>

using namespace std;

int n,k;
int sum;

void dfs(int x,int step,int num)
{
    if(step==n+1)
    {
        printf("%d\n",sum);
        return;
    }
    for(int i=x; i<=k; i++)
    {
        int cur=num;//cur记录上一位的值
        if(i*cur<=k)//i是当前位,如果两者乘积小于等于k的话进行搜索
        {
            sum=sum*10+i;//sum记录数的大小,当N位搜索完的时候sum就是符合条件的数
            dfs(0,step+1,i);
            sum=(sum-i)/10;//记得减去上一个数再搜索
        }
    }
    return;
}

int main()
{
    cin>>n>>k;
    sum=0;
    dfs(1,1,1);
    return 0;
}


<think>嗯,用户问的是“hdfs dfs-ls-h是什么意思”,我需要详细解释这个命令的各个部分以及它的作用。首先,我应该拆解命令中的每个选项和参数,说明它们的用途。首先,hdfs dfs是Hadoop分布式文件系统的命令行工具,用于执行文件操作。-ls是列出目录内容的命令,类似于Linux的ls。然后是选项-h,这里需要确认-h的作用。在HDFS的文档中,-h通常表示“人类可读”的格式,也就是将文件大小以KB、MB、GB等单显示,而不是字节数。接下来,我需要给出具体的例子,说明使用-h前后的区别。例如,不带-h时,文件大小显示为字节,带-h后可能显示为1.5K、2M等。这样用户更容易理解文件的实际大小。然后,可能需要提到其他常用的选项,比如-R用于递归列出子目录,或者-路径参数,比如指定具体的HDFS路径。同时,要提醒用户注意权限问题,如果用户没有足够的权限,可能无法列出某些目录的内容。 此外,用户可能是在实际使用中遇到了问题,比如想查看文件的大小但看不懂字节数,所以才会使用-h选项。因此,解释这个选项的实际应用场景也很重要,比如在管理存储空间时,快速了解文件或目录的大小分布。 还有可能用户对HDFS命令不太熟悉,需要补充一些基本的命令结构知识,比如hdfs dfs后面跟不同的子命令,如-ls、-put、-get等,每个子命令有不同的选项。这样帮助用户构建更完整的知识体系。 最后,确保回答准确无误,参考Hadoop官方文档,确认-h选项的正确用法,避免给出错误的信息。如果有不确定的地方,应该查阅文档或示例进行验证。</think>HDFS 的 `-ls -h` 命令解析及使用指南: ### 一、命令结构解析 ```bash hdfs dfs -ls -h <路径> ``` #### 1. 各参数含义 | 参数 | 作用描述 | |-----------|--------------------------------------------------------------------------| | `hdfs dfs`| Hadoop 文件系统操作入口 | | `-ls` | 列出目录内容(List Directory) | | `-h` | 人类可读格式(Human-readable),自动转换文件大小单 | | `<路径>` | 可选参数,指定要查看的HDFS路径(默认查看用户home目录) | ### 二、命令执行示例 #### 1. 基本用法 ```bash # 查看当前用户HDFS home目录(自动转换文件大小单) hdfs dfs -ls -h # 查看指定目录(显示完整路径) hdfs dfs -ls -h /apps/ratan/data ``` #### 2. 输出结果解析 ```bash # 示例输出 Found 3 items drwxr-xr-x - hadoop supergroup 0 2023-07-15 09:23 /user/hadoop/input -rw-r--r-- 3 hadoop supergroup 1.5K 2023-07-15 09:25 /user/hadoop/data.csv -rw-r--r-- 1 hadoop supergroup 2.1M 2023-07-15 09:26 /user/hadoop/report.pdf ``` | 字段顺序 | 含义说明 | 示例值 | |----------|-----------------------------------|--------------------| | 1 | 权限和目录标记 | drwxr-xr-x | | 2 | 副本数(文件显示) | 3 | | 3 | 属主 | hadoop | | 4 | 属组 | supergroup | | 5 | 文件大小(自动转换单) | 1.5K / 2.1M | | 6 | 最后修改日期 | 2023-07-15 09:23 | | 7 | 文件路径 | /user/hadoop/input | ### 三、组合使用技巧 #### 1. 递归列出目录结构 ```bash hdfs dfs -ls -h -R /user/hadoop ``` #### 2. 过滤特定文件类型 ```bash # 显示目录 hdfs dfs -ls -h | grep '^d' # 显示大于10MB的文件 hdfs dfs -ls -h /data | awk '{if ($5 ~ /M/ && $5+0 > 10) print $0}' ``` #### 3. 与其他命令结合 ```bash # 统计目录总大小 hdfs dfs -ls -h /data | awk '{sum+=$5} END {print sum}' # 查找最新文件 hdfs dfs -ls -h -t /logs | head -n 5 ``` ### 四、参数对比表 | 命令 | 显示特点 | 适用场景 | |----------------------|----------------------------------|-----------------------| | `hdfs dfs -ls` | 原始字节数显示 | 精确计算场景 | | `hdfs dfs -ls -h` | 自动转换单(K/M/G) | 快速查看文件大小 | | `hdfs dfs -ls -h -R` | 递归显示所有子目录 | 完整目录结构分析 | | `hdfs dfs -ls -h -t` | 按时间排序(默认最近修改在前) | 查找最新/最旧文件 | ### 五、常见错误处理 #### 1. 权限不足 ```bash # 错误示例 ls: Permission denied: user=guest, access=READ_EXECUTE # 解决方案 hdfs dfs -ls -h /user/hadoop # 切换有权限的用户 ``` #### 2. 路径不存在 ```bash # 错误示例 ls: `/user/invalid_path': No such file or directory # 验证路径存在性 hdfs dfs -test -d /user/hadoop && echo "存在" || echo "不存在" ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值