1.启动hadoop,hbase
start-all.sh
start-hbase.sh
# 确认启动成功
jps
应该会看到下面这些进程
2375 SecondaryNameNode
2169 DataNode
2667 NodeManager
2972 Jps
2045 NameNode
2541 ResourceManager
2.创建hbase测试库
hbase shell
create 'student','info'
//首先录入student表的第一个学生记录
put 'student','1','info:name','Xueqian'
put 'student','1','info:gender','

本文档介绍了如何启动Hadoop和HBase,创建HBase测试库,以及配置Spark进行连接。在Spark中,需要将HBase的相关jar包拷贝到Spark的lib目录下,并特别指出在Spark 2.0版本上需要额外下载转换HBase数据为Python可读的jar包。
最低0.47元/天 解锁文章
8605

被折叠的 条评论
为什么被折叠?



