shell删除创建时间大于10天的所有文件

本文介绍了一种用于定时清理Hadoop环境下特定目录中旧文件的脚本实现方案。该方案通过使用find命令结合cron任务来定期删除指定路径下超过一定时间的文件,以释放磁盘空间并保持系统的高效运行。对于多节点集群,还提供了一个通过ssh远程执行清理脚本的方法,简化了维护流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

清理文件脚本(已经测试通过):
find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;

crontab脚本:
#clear 
0 17 * * 5 cd /home/data/ sh clear_tmp.sh


如果只有一个结点只需要再那个结点上写一个crontab脚本就可以没周定时清理了


如果有多个结点,不想每一个结点上都写一次crontab脚本,可以利用ssh远程执行清理脚本,在一台机器上布一个crontab就可以了。


ssh dmp-slave1 "find /tmp/hadoop-flume/s3 -mtime +10 -exec rm -rf {} \;" 


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值