目录
Apache Hadoop生态-目录汇总-持续更新
系统环境:centos7
Java环境:Java8
1:Mysql(RDBMS)与Hive/HDFS数据传输
1.1:列出MySQL数据有哪些数据库:
sqoop list-databases \
--connect jdbc:mysql://192.168.5.114:3306/ \
--username hive \
--password hive_pw
1.2:根据mysql表结构创建hive表
根据test库mac_website创建hive表
sqoop create-hive-table \
--connect jdbc:mysql://192.168.5.114:3306/test \
--username hive \
--password hive_pw \
--table test \
--hive-table db_hive.my_test
1.3: RDBMS导入到hdfs

--target-dir /user/company \ # 指定hdfs路径
--delete-target-dir \ 如果目标文件存在,会删除
--fields-terminated-by "\t" # 指定分隔符
--num-mappers 1MapTask个数, 默认4个(会生成4个文件)

本文介绍了如何使用Sqoop进行离线数据同步,从MySQL到Hive、HDFS以及HBase的详细步骤,包括条件导入、增量导入和查询导入,并提到了与HBase的兼容性问题及数据导出到RDBMS的操作。
最低0.47元/天 解锁文章
4万+

被折叠的 条评论
为什么被折叠?



