Sqoop 数据导入
“导入工具”导入单个表从 RDBMS 到 HDFS。表中的每一行被视为 HDFS 的记录。所有记录 都存储为文本文件的文本数据(或者 Avro、sequence 文件等二进制数据)
下面的语法用于将数据导入 HDFS
sqoop import (generic-args) (import-args)

1、导入 MySQL 数据到 HDFS
1.1、普通导入

如果我们没有给该命令指定导出的文件的存储路径,那么默认会保存在 HDFS 上的
/user/hadoop/help_keyword 目录中 其中,第一个 user 是固定的,第二个 hadoop,表示链接的用户名,第三个表示表名
查看结果:
也可以使用 hadoop 命令查看: hadoop fs -cat /user/hadoop/help_keyword/part-m-00000
从以上结果可以得出一个结论:如果没有指定路径,则会按默认规则生成路径,如果没有 指定分隔符,默认按照逗号分隔
1.2、指定分隔符和导入路径

1.3、导入 where 条件数据
1.4、导入 Query 结果数据
2、导入 MySQL 到 HIVE
Sqoop 导入关系型数据到 hive 的过程是先导入到 hdfs,然后再 load 进入 hive
2.1、普通导入

2.2、增量导入
3、导入 MySQL 数据到 HBase
看结果:
本文详细介绍了如何使用Sqoop工具从关系型数据库如MySQL导入数据到Hadoop的HDFS,包括基本导入流程、指定分隔符和路径、导入特定条件的数据、通过查询结果导入以及增量导入的方法。此外,还讲解了如何将数据导入到Hive和HBase,为大数据处理提供了全面的指导。

被折叠的 条评论
为什么被折叠?



