Sqoop 数据迁移工具 --4.Sqoop 数据导入

本文详细介绍了如何使用Sqoop工具从关系型数据库如MySQL导入数据到Hadoop的HDFS,包括基本导入流程、指定分隔符和路径、导入特定条件的数据、通过查询结果导入以及增量导入的方法。此外,还讲解了如何将数据导入到Hive和HBase,为大数据处理提供了全面的指导。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Sqoop 数据导入 

“导入工具”导入单个表从 RDBMS 到 HDFS。表中的每一行被视为 HDFS 的记录。所有记录 都存储为文本文件的文本数据(或者 Avro、sequence 文件等二进制数据) 

下面的语法用于将数据导入 HDFS 

sqoop import  (generic-args)  (import-args) 

 

1、导入 MySQL 数据到 HDFS 

 1.1、普通导入 

如果我们没有给该命令指定导出的文件的存储路径,那么默认会保存在 HDFS 上的 

/user/hadoop/help_keyword 目录中 其中,第一个 user 是固定的,第二个 hadoop,表示链接的用户名,第三个表示表名

查看结果: 

  

也可以使用 hadoop 命令查看: hadoop fs -cat /user/hadoop/help_keyword/part-m-00000 

从以上结果可以得出一个结论:如果没有指定路径,则会按默认规则生成路径,如果没有 指定分隔符,默认按照逗号分隔 

1.2、指定分隔符和导入路径 

 

 

1.3、导入 where 条件数据 

 

 

 

1.4、导入 Query 结果数据 

 

 

 

2、导入 MySQL 到 HIVE 

Sqoop 导入关系型数据到 hive 的过程是先导入到 hdfs,然后再 load 进入 hive 

2.1、普通导入 

 

 

 

2.2、增量导入 

 

 

3、导入 MySQL 数据到 HBase 

 

看结果: 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值