hive分隔符引发的坑
这两天在做公司 BPM 系统数据分析的工作,前期需要将 BPM 系统的数据导入到 HDFS 上,BPM 系统数据存储在 SQL Server 上,导入数据工具选择 Sqoop ,按照 Sqoop 操作惯例,需要先下载相应的驱动 jar 包,这里是网上下载的 mssql-jdbc-7.4.1.jre8.jar(图示上为 sql server 的驱动 jar 包,下为 mysql 的驱动 jar 包);
然后将下好的 jar 包上传到 Sqoop 的 lib 目录下;
打开Hadoop相关进程,就可以执行数据的导入和导出操作了;
#App_K3Flow表数据同步(全量)
/opt/module/sqoop/bin/sqoop import \
--connect "jdbc:sqlserver://172.31.xxx.xxx:1433;DatabaseName=kcpm" \
--username xx \
--password xxxxxx \
--target-dir /warehouse/data/App_K3Flow_test \
--delete-target-dir \
--query &