Kettle整合大数据平台
Kettle整合Hadoop
1、查看hadoop的文件系统
- 通过浏览器访问
http://node1:50070
- 通过终端访问
hadoop fs -ls / # 查看文件
2、在hadoop文件系统中创建/hadoop/test目录
hadoop fs -mkdir -p /hadoop/test
3、在本地创建1.txt
- vim 1.txt
id,name
1,itheima
2,itcast
4、上传1.txt到hadoop文件系统的/hadoop/test目录
hadoop fs -put 1.txt /hadoop/test
kettle与hahoop环境整合
1、确保Hadoop的环境变量设置好HADOOP_USER_NAME为root
2、从hadoop下载核心配置文件
sz /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml
sz /export/servers/hadoop-2.6.0-cdh5.14.0/