hadoop注意事项

本文档提供了Hadoop与Hive集群部署的详细步骤,包括/etc/hosts配置、静态IP设置、防火墙注意事项等。同时介绍了如何使用Eclipse编写并测试MapReduce程序,以及通过命令行启动Hive服务的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、 /etc/hosts  里面的各主机ip配置 要和所关联机器系统ifconfig ip地址对应     

2、系统 最好用静态ip地址

3、部署启动/访问集群的时候要注意防火墙是否关闭

4、/opt/hive/bin/hive --service hiveserver -p 1043 --hiveconf javax.jdo.option.ConnectionURL=jdbc:mysql://hd194:3306/dp_meta 
 (hive --service hiveserver为启动hive服务  hive为启动命令行)  修改hive属性的值

5、一台服务器可以开启多个hive 只要 -p 端口号不同

6、用eclipse编写mapreduce程序时,可以先在本地测试,input文件、out文件夹可以用本地的路径作为参数。如果在windows下的eclipse编写需要计算机名为hadoop不然会报权限不足的错误。

7、在经验不足的情况下编写mapreduce可以先用一个可以跑通的mapreduce程序(例如wordcount.java)再在其上面进行拓展。

8、可以把hbase的数据直接动态插入到hive只需在创建hive表时指向hive的数据来源

9、hadoop运行jar 打包为Runnable JAR file :hadoop jar /usr/hadoop20140111/mywordcount1.jar hdfs://hadoop2/test/hadoop/wordcount hdfs://hadoop2/test/hadoop/0003

/usr/hadoop20140111/mywordcount1.jar为本地路径。

10、hadoop运行jar 打包为JAR file:hadoop jar /usr/hadoop20140111/fix.jar WordCount hdfs://hadoop2/test/hadoop/wordcount hdfs://hadoop2/test/hadoop/00048


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值