基于sparksql调用shell脚本执行SQL

本文介绍了如何通过SparkSQL调用Shell脚本来执行SQL任务,以此提高批处理效率。示例中展示了定时调用脚本的过程,包括数据插入、SQoop导出以及创建Hive的临时函数,强调了使用SparkSQL相比于Hive在执行速度上的显著提升。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基于sparksql调用shell脚本执行SQL,sparksql提供了类似hive中的 -e  , -f ,-i的选项


1、定时调用脚本

[plain]  view plain copy
  1. #!/bin/sh    
  2. # upload logs to hdfs    
  3.     
  4. yesterday=`date --date='1 days ago' +%Y%m%d`    
  5.   
  6. /opt/modules/spark/bin/spark-sql -i /opt/bin/spark_opt/init.sql --master spark://10.130.2.20:7077 --executor-memory 6g --total-executor-cores 45 --conf spark.ui.port=4075   -e "\  
  7. insert overwrite table st.stock_realtime_analysis PARTITION (DTYPE='01' )  
  8.   select t1.stockId as stockId,  
  9.          t1.url as url,  
  10.          t1.clickcnt as clickcnt,  
  11.          0,  
  12.          round((t1.clickcnt / (case
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值