Sqoop工作机制是将导入或导出命令翻译成mapreduce程序来实现。在翻译出的mapreduce中主要是对inputformat和outputformat进行定制。
- Hadoop生态系统包括:HDFS、Hive、Hbase等
- RDBMS体系包括:Mysql、Oracle、DB2等
- Sqoop可以理解为:“SQL 到 Hadoop 和 Hadoop 到SQL”。
简介之后就到了安装环节
- 配置文件修改:
cd $SQOOP_HOME/conf
mv sqoop-env-template.sh sqoop-env.sh
vi sqoop-env.sh
export HADOOP_COMMON_HOME= /export/servers/hadoop-2.7.5
export HADOOP_MAPRED_HOME= /export/servers/hadoop-2.7.5
export HIVE_HOME= /export/servers/hive - 加入mysql的jdbc驱动包
cp /hive/lib/mysql-connector-java-5.1.32.jar $SQOOP_HOME/lib/ - 验证启动
bin/sqoop list-databases
–connect jdbc:mysql://localhost:3306/
–username root --password 123456

本文介绍如何使用Sqoop在Hadoop生态体系与传统RDBMS间高效迁移数据。通过配置和安装过程,读者将了解Sqoop如何利用MapReduce实现数据导入导出,以及如何设置环境使其与Hadoop、Hive等组件协同工作。
589

被折叠的 条评论
为什么被折叠?



