
shell
mtj66
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
shell脚本进行sftp文件批量上传与下载
http://blog.youkuaiyun.com/u012204058/article/details/53160419使用linux 的shell脚本进行sftp文件上传与下载批量上传:#!/bin/bash#SFTP配置信息 #用户名 USER=root #密码 PASSWORD=5EYS40T04BMF #待上传文件根目录 SRCDIR=/u02/dab/sftpFiles #FTP目录 DESDIR转载 2017-12-19 18:10:46 · 2827 阅读 · 0 评论 -
zabbix agent rpm 包安装
zabbix agent 安装流程history原创 2017-12-25 11:40:12 · 1440 阅读 · 0 评论 -
定时任务之不明显的错误导致任务失败
exception : hdfs file not find Caused by: org.apache.hadoop.ipc.RemoteException(java.io.FileNotFoundException): File does not exist: /user/hive/warehouse/cproject.db/cplatform_map_today/part-00176原创 2018-01-19 10:56:26 · 1538 阅读 · 0 评论 -
linux批量kill 某一类型进程
为了清理之前的console consumer 采用如下的 脚本 进行筛选,然后一次性kill掉:ps -ef |grep ConsoleConsumer |awk '{print $2}'|xargs kill -9这里是输出ps -ef |grep hello 结果的第二列的内容然后通过xargs传递给kill -9,其实第二列内容就是hello的进程号!附录:1,awk是一种编程语言,用于...原创 2018-05-25 13:19:41 · 4934 阅读 · 1 评论 -
遍历当前路径下的文件夹进行压缩
#!/bin/bash function getdir(){ for element in `ls $1` do dir_or_file=$1"/"$element if [ -d $dir_or_file ]; # -d 文件夹判断 then echo "dir == $dir_or_file" # getdir $dir_or...原创 2018-06-08 11:36:32 · 1535 阅读 · 0 评论 -
shell定时删除spark的applicationHistory历史文件
删除很简单,但是不能删除一些正在运行的程序的日志,尤其是spark streaming 的日志文件,一旦删除无法再生,以后想查日志都难.下面的脚本实现删除一个月之前的spark application的历史文件,记录下,大伙可以参考修改使用.#! /bash # delete 30 day's before spark history logs ######################...原创 2018-06-01 15:35:59 · 4132 阅读 · 1 评论