助力工业物联网,工业大数据之服务域:Shell调度测试【三十三】_shell调度系统(2)

	```
	bash_command='sh xxxx.sh'
	
	```
	- xxxx.sh:根据需求
	
	
		* Linux命令
		* hive -f
		* spark-sql -f
		* spark-submit python | jar
+ **提交**

 
```
python first_bash_operator.py 

```
+ **查看**

 ![image-20211005125514015](https://img-blog.csdnimg.cn/img_convert/8e3259c41f5cf46e8dbf3eb46a086947.png)
+ **执行**

 ![image-20211005125649864](https://img-blog.csdnimg.cn/img_convert/662efc20785aa4ae81516479f05b9410.png)
  • 小结

    • 实现Shell命令的调度测试

知识点08:依赖调度测试

  • 目标:实现AirFlow的依赖调度测试

  • 实施

    • 需求:使用BashOperator调度执行多个Task,并构建依赖关系

    • 代码

      • 创建
      cd /root/airflow/dags
      vim second_bash_operator.py
      
      
      • 开发
      # import
      from datetime import timedelta
      from airflow import DAG
      from airflow.operators.bash import BashOperator
      from airflow.utils.dates import days_ago
      
      # define args
      default_args = {
          'owner': 'airflow',
          'email': ['airflow@example.com'],
          'email\_on\_failure': True,
          'email\_on\_retry': True,
          'retries': 1,
          'retry\_delay': timedelta(minutes=1),
      }
      
      # define dag
      dag = DAG(
          'second\_airflow\_dag',
          default_args=default_args,
          description='first airflow task DAG',
          schedule_interval=timedelta(days=1),
          start_date=days_ago(1),
          tags=['itcast\_bash'],
      )
      
      # define task1
      say_hello_task = BashOperator(
          task_id='say\
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值