基于spark1.4的Spark-Sql

本文介绍了如何使用Spark 1.4.1版本中的Spark-SQL功能,包括启动查询终端的方法、基本查询语法示例及如何查看查询计划与监控信息。

Author: kwu 

基于spark1.4的Spark-Sql,spark1.4.1在7月15刚公布。提供较好sql支持


1、怎样启动Spark-Sql

启动脚本例如以下

#!/usr/bin/env bash
read  -p "enter your username:" user
read -s -p "enter your password:" pass

sparksql -u jdbc:hive2://bdc:10000 -n $user -p $pass

执行后,依照提示输入username与password,进入查询终端。

 

 

2、进入Spark-Sql查询,測试例如以下:

select day,count(*) from ods.tracklog groupby day;

 


hive中执行

select day,count(*) from ods.tracklog groupby day;

 

 

3、查看Spark-Sql监控

http://bdc:4040

 

查看查询计划

 

 

退出登录

!q

 


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值