hive学习笔记之-使用Sqoop把Oracle表导入Hive

本文详细介绍如何使用Sqoop从Oracle数据库导入数据到Hive,包括环境搭建、操作步骤及常见问题解决方法。

安装环境:

Hive: hive-0.11.0

Hadoop: Hadoop 1.2.1

Sqoop: sqoop-1.4.4.bin__hadoop-1.0.0

Oralce driver: ojdbc6.jar


软件下载:

Hive: http://apache.dataguru.cn/hive/

Hadoop: http://apache.dataguru.cn/hadoop/

Sqoop: http://apache.dataguru.cn/sqoop/

Ojdbc: http://www.oracle.com/technetwork/database/features/jdbc/index-091264.html

 

操作步骤:

前提确保hadoop已经启动

1. 安装sqoop

--解压

tar zvxf sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz

cp -r sqoop-1.4.4.bin__hadoop-1.0.0/app/hadoop

chown -Rlicz:hadoop /app/hadoop/sqoop-1.4.4.bin__hadoop-1.0.0

 

2. 复制oracle JDBC的驱动放到Sqoop的lib文件夹下

cp ojdbc6.jar/app/hadoop/sqoop-1.4.4.bin__hadoop-1.0.0/lib

 

3. 修改环境变量

[licz@nticket1~]$ vi .bash_profile

export HADOOP_HOME=/app/hadoop/hadoop-1.2.1

export JAVA_HOME=/usr/java/jdk1.6.0_18

export HIVE_HOME=/app/hadoop/hive-0.11.0

export SQOOP_HOME=/app/hadoop/sqoop-1.4.4.bin__hadoop-1.0.0

PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$HADOOP_HOME/bin:$PIG_HOME/bin:$HIVE_HOME/bin:$SQOOP_HOME/bin

export PATH

 

4. 导入oracle数据

--导入方法

$ sqoop import--hive-import --connect jdbc:oracle:thin:@192.168.56.111:1521:DBNAME --username USERNAME --password PASSWORD --verbose -m 1 --table TABLENAME

 

说明:

DBNAME:数据库实例名

USERNAME:用户名

PASSWORD:密码

TABLENAME:表名

-m:导入数据的进程的并发数,默认是4。如果导入的数据不大的话,不妨设置成1,这样导入更快。一般来说Sqoop会使用主键来平均地分割数据。并发导入的时候可以设置相关的分割列等等,具体的做法参考官方的文档。

官方文档:

http://sqoop.apache.org/docs/1.4.4/index.html

参数说明参考:

http://blog.youkuaiyun.com/lichangzai/article/details/19205957

 

注意:

l        用户名和表名必需是大写的,除非它们在创建的时候是名字是放在引号中的大小写混合的形式。

l        Sqoop会把Oracle中的表自动在hive中中创建,不用手工创建

l        表自动创建在default数据库中,如果想导入到其它库中,可加--hive-table mydb.tbname方式导入。

 

--导入实例

sqoop import--hive-import --connect jdbc:oracle:thin:@172.16.80.115:1521:CUSTOMER2--username WEBMEMBER --password webmem123 --verbose -m 1 --table MEMBERS



5. 增量导入

另外一个问题,如果我们要导入某个表中的新加入的部分,可以使用--check-column、--incremental、--last-value三个参数,--check-column指定要检查的列,--incremental指定某种增加的模式,只有两个合法的值,append 和lastmodified。如果--incremental为append,则Sqoop会导入--check-column指定的列的值大于--last-value所指定的值的记录。如果--incremental为lastmodified,则Sqoop会导入--check-column指定的列的值(这是一个时间戳)近于--last-value所指定的时间戳的记录。

 

例如下面的命令可以导入列ID的值大于4的所有记录。

$ sqoop import--hive-import --connect jdbc:oracle:thin:@192.168.56.111:1521:DBNAME --usernameUSERNAME --password PASSWORD --verbose -m 1 --table TABLENAME --check-column ID--incremental append --last-value 4

 

遇到的问题

1.导入hive时报错

ERROR tool.ImportTool:Imported Failed: Attempted to generate class with no columns

 

原因和解决办法:

是因导入时表名或用户名没有大写所致

sqoop import --hive-import --connectjdbc:oracle:thin:@172.16.80.115:1521:CUSTOMER2 --username WEBMEMBER --passwordwebmem123 --verbose -m 1 --tablemembers

 

参考文章:

http://blog.youkuaiyun.com/lichangzai/article/details/8542613

http://blog.sina.com.cn/s/blog_3fe961ae01019a4l.html

http://sqoop.apache.org/docs/1.4.4/index.html

http://blog.youkuaiyun.com/lichangzai/article/details/19205957

 

### 回答1: Sqoop是一个用于在Hadoop集群和关系型数据库(如Oracle)之间进行数据传输的工具。使用Sqoop可以实现将Oracle的数据导入Hive中。 首先,确保Sqoop已经正确安装并配置好了。 1. 查看Oracle连接信息:需要获取Oracle数据库的连接信息,包括数据库的URL,用户名和密码。 2. 创建Hive:在Hive中创建一个,用于存储从Oracle导入的数据。可以使用Hive的命令行或者Hive的客户端工具进行创建。 3. 导入数据:使用Sqoop的import命令将Oracle中的数据导入Hive中。命令示例: ``` sqoop import --connect jdbc:oracle:thin:@servername:port/servicename --username username --password password --table tablename --hive-import --hive-table hivetable ``` 其中,`jdbc:oracle:thin:@servername:port/servicename`为Oracle数据库的连接URL,`username`和`password`是Oracle数据库的用户名和密码,`tablename`是要导入Oracle名,`hivetable`是要导入Hive中的名。 4. 等待导入完成:Sqoop会自动将Oracle中的数据导入Hive中。根据数据的大小和网络的速度,导入的时间可能会有所不同。可以通过Sqoop的日志来查看导入的进度和状态。 导入完成后,可以使用Hive命令行或者Hive客户端工具来验证数据是否成功导入Hive中。通过查询Hive,可以查看导入的数据是否准确无误。 通过以上步骤,就可以使用SqoopOracle的数据导入Hive中了。这样,就可以在Hadoop集群上使用Hive进行大数据分析和数据处理了。 ### 回答2: Sqoop是一种用于将数据在关系型数据库和Hadoop之间进行传输的工具。它可以用来将Oracle中的数据导入Hive中。 在使用Sqoop导入OracleHive之前,首先需要确保已经安装并配置了SqoopHive。然后,可以使用Sqoop的import命令来执行导入操作。 命令示例: ``` sqoop import \ --connect jdbc:oracle:thin:@//hostname:port/servicename \ --username your_username \ --password your_password \ --table your_table \ --hive-import \ --hive-table your_hive_table \ --hive-overwrite ``` 在这个命令中,需要替换以下参数: - `hostname:port/servicename`:Oracle数据库的主机名、端口号和服务名。 - `your_username`:连接Oracle数据库的用户名。 - `your_password`:连接Oracle数据库的密码。 - `your_table`:要导入Oracle名。 - `your_hive_table`:要在Hive中创建的名。 在执行命令后,Sqoop会连接到Oracle数据库,并将指定的数据导入Hive中。`--hive-import`参数用于指示Sqoop将数据导入Hive中。`--hive-table`参数用于指定在Hive中创建的名。`--hive-overwrite`参数示如果同名已经存在于Hive中,则覆盖该导入完成后,就可以在Hive中查询和分析导入的数据了。 ### 回答3: Sqoop是一款用于数据的批量传输工具,它可以将关系型数据库中的数据导入Hive中进行分析和处理。下面是使用SqoopOracle导入Hive的步骤: 1. 首先,确保Sqoop已经正确安装并配置好了与Oracle数据库和Hive的连接。 2. 使用Sqoop命令行工具,通过以下命令来导入数据: ``` sqoop import --connect jdbc:oracle:thin:@<hostname>:<port>/<database> --username <username> --password <password> --table <tablename> --hive-import --hive-table <hivetablename> ``` 其中,`<hostname>`是Oracle数据库的主机名,`<port>`是Oracle数据库的端口号,`<database>`是Oracle数据库的名称,`<username>`是登录Oracle的用户名,`<password>`是登录Oracle的密码,`<tablename>`是要导入Oracle的名称,`<hivetablename>`是要导入Hive中的的名称。 3. 运行上述命令后,Sqoop会根据指定的连接信息和信息从Oracle数据库中读取数据,并将数据以Avro文件格式的形式导入HDFS中的临时目录。 4. 然后,Sqoop将数据从临时目录加载到Hive中,可以通过Hive查询语句对该进行分析和处理。 需要注意的是,导入过程中可以根据具体需求进行一些参数的调整,如字段映射、分隔符、是否压缩等。 总结来说,通过Sqoop可以简便地将Oracle数据库中的数据导入Hive中,方便进行后续的数据分析和处理。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值