1.require : java环境,hadoop,hive ,mysql
2.下载解压sqoop1
3.设置环境变量
export SQOOP_HOME=/data/spark/bin/sqoop
export PATH=$PATH:$SQOOP_HOME/bin
4.添加mysql连接类
cp mysql-connector-java.jar $SQOOP_HOME/lib/
5.测试
sqoop import --connect jdbc:mysql://{host}/{db} --username {user} --password {password} --table item_info --hive-import
本文介绍如何通过Sqoop工具实现MySQL数据库与Hive之间的数据导入导出操作。具体步骤包括:配置Java环境、安装Hadoop与Hive、下载并解压Sqoop、设置环境变量、添加MySQL连接类、以及最终进行数据导入测试。
319

被折叠的 条评论
为什么被折叠?



