spark-sql 能够读取hive表

本文介绍如何通过Spark SQL快速便捷地查询Hive表数据。只需将Hive的配置文件复制到Spark的conf目录,并根据需要添加MySQL连接器到jars目录。这样便能在Spark SQL交互界面上操作Hive的库和表。

在服务器中直接使用spark-sql 来读取hive表的数据,使用spark引擎进行hive表数据查询,既快又方便。

实现起来很简单,只需要把 安装hive的 hive-site.xml 配置文件,复制到spark安装的conf/ 目录下即可;如果你的hive的元数据库是在mysql,还需要把连接mysql的mysql-connector-java-5.1.46.jar复制到spark安装jars/ 目录下。

然后执行 spark-sql ,在交互界面你就能读取hive 的库和表。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值