shell比较简单也比较灵活,计算表达式的值有很多方法:
暂举一例,后续慢慢补充。
size=`hadoop dfs -dus $1 | awk -F" " '{print $2}'`;
num=`expr $size / $block`;
本文介绍了一种使用Shell脚本结合Hadoop DFS和Awk命令来计算指定文件大小的方法。通过具体示例展示了如何利用这些工具进行文件大小的计算。
shell比较简单也比较灵活,计算表达式的值有很多方法:
暂举一例,后续慢慢补充。
size=`hadoop dfs -dus $1 | awk -F" " '{print $2}'`;
num=`expr $size / $block`;
33万+

被折叠的 条评论
为什么被折叠?