1 将linux中的数据表上传到HDFS文件系统中;
[ambow@hadoopNode1 data]$ hadoop dfs -put music1.txt music2.txt music3.txt /user/ambow/input/music
2 .Hbase与Hadoop集成:
1).把hbase-site.xml配置文件复制到$HADOOP_HOME/etc/hadoop目录下
2).编辑$HADOOP_HOME/etc/hadoop/hadoop-env.sh 添加最后一行:
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/home/ambow/app/hbase-1.3.2/lib/*
3). 把修改后的hbase-site.xml和hadoop-env.sh 分发至各节点
集成测试 统计一个表的行数:
hadoop jar $HBASE_HOME/lib/hbase-server-1.3.2.jar rowcounter 表名
如果能得到表的行数,证名集成环境成功
3 将HDFS中的数据表传到Hbase中
批量导入: 思想是把原
Linux数据到Hbase的迁移教程

这篇博客详细介绍了如何将Linux文件系统中的数据表上传到HDFS,并通过Hbase与Hadoop的集成,实现数据的迁移。首先,将Linux数据表存入HDFS,然后配置Hbase和Hadoop的集成,确保环境正确。最后,通过importtsv命令生成HFile文件,并使用completedulkload将其加载到HBase中,完成数据迁移。
最低0.47元/天 解锁文章
1163

被折叠的 条评论
为什么被折叠?



