Kettle 连接 Hive 采集和灌入数据,Cloudera CDH514版本

本文介绍在Cloudera CDH 5.14环境下,使用Kettle 8.2进行Oracle与Hive间数据同步的过程。涉及Hive客户端配置下载、解压及复制到Kettle安装目录,以及解决启动时缺少hadoop-core.jar和hadoop-common.jar依赖的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

项目需求,需要Oracle、Hive之间的数据同步,Kettle连接Hive,坑比较多,Mark下。

一、环境说明

我的大数据集群环境使用的Cloudera,CDH版本为5.14,其他为,

  • kettle的版本是:8.2
  • hadoop:2.6.0
  • hive:1.1

二、Hive配置信息

1、到Cloudera manager界面,选择Hive,下载客户端配置

2、解压配置文件

3、然后将解压的配置文件复制到kettle的安装目录下,我的路径是:D:\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\cdh514

三、所需 jar 包

配置文件搞定后,启动报错,还缺两个hadoop的依赖包,hadoop-core.jar和hadoop-common.jar。

放上依赖jar后,重启,测试成功。

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值