hadoop单节点安装及eclipse调用

由于算法测试需要调用hadoop集群,但是使用别人搭建的hadoop集群老挂,挂了后还需要求助别人;于是自己就搭建了一个单节点的hadoop,将就用着。关于单节点hadoop安装我参考了:

http://www.cnblogs.com/end/archive/2012/08/13/2636645.html


这篇文章讲的是在虚拟机上面安装hadoop,我的实际情况跟这个有点出入,我是通过本机SecureCRT 客户端连接linux 服务器,所以我不需要安装虚拟机。所以安装步骤简化了不少:

一、 创建无密码登录。

根据上面资料,创建密码对后,发现 ssh localhost 还是需要输入密码。

解决思路:

查看ssh日志文件,错误信息: ssh Authentication refused: bad ownership or modes for directory /home/cmcc/.ssh

搜索资料发现,是authorized_keys 文件权限太高,去掉 w 权限;chmod g-w authorized_keys


二、解压安装hadoop1.0.3,修改配置文件。

在hadoop namenode -format 后,datanode起不起来。原因是之前的datanode数据文件没有被删除干净,所以需要rm -rf data 和 rm -rf datalog。


三、eclipse Java代码调用hadoop数据。

代码运行报错,提示groupsuper权限问题;这个是由于文件检查权限不够的原因;解决方法:

修改hdfs-site.xml文件,设置 dfs.permissions为false。


以上就是我单节点 hadoop安装测试所遇到的一些问题,希望对你有所帮助。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值