spark 操作 hbase

本文介绍如何使用Apache Spark操作HBase数据库,包括配置环境、设置连接参数及读取HBase表的方法。通过具体实例展示了如何利用Spark RDD进行HBase数据读取,并计数记录数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

添加hbase 的jar 包,在{SPARK_HOME}/conf/spark-env.sh 中添加<span style="white-space:pre">	</span>
<span style="white-space:pre"></span><pre name="code" class="plain">export SPARK_CLASSPATH=/usr/local/hbase/hbase-0.96.2-hadoop2/lib/*


spark 操作 hbase 跟 java 操作hbase 一样一样的。
import org.apache.spark._  
import org.apache.spark.rdd.NewHadoopRDD 
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration; 
import org.apache.hadoop.hbase.mapreduce.TableInputFormat 
import org.apache.hadoop.hbase.client.HBaseAdmin
val configuration = HBaseConfiguration.create();  
configuration.set("hbase.zookeeper.property.clientPort", "2181");
configuration.set("hbase.zookeeper.quorum", "ubuntu3,ubuntu1,ubuntu2");   
configuration.set("hbase.master", "ubuntu1:60000");  //设置hbase master  
configuration.addResource("/usr/local/hbase/hbase-0.96.2-hadoop2/conf/hbase-site.xml")  
configuration.set(TableInputFormat.INPUT_TABLE, "person")
val hadmin = new HBaseAdmin(configuration); 
val hrdd=sc.newAPIHadoopRDD(configuration,classOf[TableInputFormat],classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],classOf[org.apache.hadoop.hbase.client.Result]) 

hrdd.count 
</pre><pre name="code" class="java">

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值