一、spark本地或者集群创建hbase表(不需要Kerberos认证)、并且插入数据
1、环境准备:idea 16+scala-2.10.4+cdh-spark-1.6.1+jdk-1.7+hbase-1.2.0-cdh5.8.0
2、 (1)创建maven工程:pdf-hbase
(2)新建一个文件夹libs,导入cdh的spark jar,添加jar到项目中
spark-assembly-1.6.0-cdh5.8.0-hadoop2.6.0-cdh5.8.0.jar
spark-examples-1.6.0-cdh5.8.0-hadoop2.6.0-cdh5.8.0.jar
(3)编写pom.xml文件,导入相关的依赖包
3、编写实现的spark代码
ScalaHbaseCreate.scala类如下:
package controller.spark
import org.apache.hadoop.hbase.client.{Get, HBaseAdmin, HTable, Put}
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.hadoop.hbase.util.Bytes
import org.apache.hadoop.hbase.{HBaseConfigura