Sqoop导出数据

本文档详细记录了如何在Linux环境中,通过Sqoop将HDFS上的数据导出到已经安装并允许远程连接的MySQL数据库中。步骤包括解压Sqoop、清空MySQL数据、创建选项文件、上传MySQL驱动、执行导出操作以及验证数据导入的正确性。

Sqoop导出数据到Hive上

flume收集日志:主动的和被动的

看文档

sqoop底层是MR,要运行sqoop要有yarn环境,做大数据平台和关系型数据库导入导出工具,必须要有连接数据库的驱动

sqoop和hive必须在一个节点上,sqoop和hive都是工具

如果多个节点都安装了hive,

如何保证多个hive的数据一致-->保证元数据一致-->即保证各个hive中存储元数据(公用元数据)的地方是一个地方

1、node1节点上已经安装了mysql,并允许远程连接:

[root@node1 ~]# service mysql start

[root@node1 ~]# service mysql status

2、将数据导入到HDFS中去

2.1、解压sqoop压缩文件到Linux主机上的指定目录

[root@node1 software]# tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/modules
[root@node1 software]# cd /opt/modules
[root@node1 modules]# mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha sqoop-1.4.6

2.2、清空window上的Mysql客户端表中数据

2.3、创建option1选项文件

[root@node1 sqoop-1.4.6]# vi option2

官网有配置的详细解释

export
--connect
jdbc:mysql://node1/test
--username
root
--password
123456
--columns
id,name
--table
t_test
--export-dir
/sqoop/data
--input-fields-terminated-by
','
-m
1

2.4、上传mysql驱动包到sqoop的lib目录下

2.5、查看HDFS上要导出的数据

[root@node1 sqoop-1.4.6]# hadoop fs -ls -R /sqoop/data
-rw-r--r--   3 root supergroup          0 2016-03-25 11:20 /sqoop/data/_SUCCESS
-rw-r--r--   3 root supergroup          0 2016-03-25 11:20 /sqoop/data/part-m-00000

2.6、执行选项文件

[root@node1 sqoop-1.4.6]# ./bin/sqoop --options-file option2

2.7、再次查看HDFS下存放数据的目录,发现数据还在目录下

[root@node1 sqoop-1.4.6]# hadoop fs -ls -R /sqoop/data

2.8、在window上的Mysql客户端,查看数据是否已经导入

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MatrixSparse

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值