清理文件脚本(已经测试通过):
find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;
crontab脚本:
#clear
0 17 * * 5 cd /home/data/ sh clear_tmp.sh
如果只有一个结点只需要再那个结点上写一个crontab脚本就可以没周定时清理了
如果有多个结点,不想每一个结点上都写一次crontab脚本,可以利用ssh远程执行清理脚本,在一台机器上布一个crontab就可以了。
ssh dmp-slave1 "find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;"
---------------------
作者:djd已经存在
来源:优快云
原文:https://blog.youkuaiyun.com/djd1234567/article/details/51984264
版权声明:本文为博主原创文章,转载请附上博文链接!