Kettle> Kettle整合Hadoop

本文详细介绍了如何使用Kettle进行Hadoop整合,包括通过浏览器和终端访问Hadoop文件系统,创建目录,上传文件,设置Hadoop环境变量,下载并配置Hadoop核心文件,以及在Kettle中创建Hadoop集群。同时,讲解了Kettle的Hadoop file input和output组件的使用,用于从HDFS读取和保存数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Kettle整合大数据平台

Kettle整合Hadoop

1、查看hadoop的文件系统

  • 通过浏览器访问 http://node1:50070
  • 通过终端访问
hadoop fs -ls / # 查看文件

2、在hadoop文件系统中创建/hadoop/test目录

hadoop fs -mkdir -p /hadoop/test  

3、在本地创建1.txt

  • vim 1.txt
id,name
1,itheima
2,itcast

4、上传1.txt到hadoop文件系统的/hadoop/test目录

hadoop fs -put 1.txt /hadoop/test

kettle与hahoop环境整合

1、确保Hadoop的环境变量设置好HADOOP_USER_NAME为root
2、从hadoop下载核心配置文件

sz /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml
sz /export/servers/hadoop-2.6.0-cdh5.14.0/
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值