hadoop2.2.0在64位readhat编译实战

本文分享了作者升级Hadoop至2.2.0版本过程中自行编译的经验,解决了官方32位本地库与系统不兼容的问题。文章详细记录了编译过程中的常见错误及解决方法,特别强调了正确安装依赖环境的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

    前阵子升级hadoop到2.2.0,官方32位的本地库和系统不兼容,亲自编译了一次。网上不少写如何编译hadoop的资料,照着做了几次,终于成功了,踩了几个坑,希望看到这篇文章的人不要再踩同样的坑。

    参考这些博文:



    编译过程不断遇到问题,第一次卡在

[INFO] Apache Hadoop Common ............................... FAILURE 

第二次卡在

[INFO] Apache Hadoop Pipes ................................ FAILURE [ 0.457 s] 


    静下心来仔细看错误日志,对着源码看,最终发现每次编译错误,都是因为依赖的环境没有安装成功。

重新一个一个安装,仔细检查哪个没有安装成功:

yum install svn 
yum install autoconfautomake libtool cmake 
yum install ncurses-devel 

yum install openssl-devel 

yum install gcc* 


原来是没有openssl-devel 这个东西,从另外一篇文章找到这个的时候才恍然大悟:

yum install cmake lzo-devel  zlib-devel  gcc autoconf automake libtool   ncurses-devel openssl-deve
原来是把openssl-deve这个的名字拼错了。
    环境问题的确让人头疼,一直也没有找到啥好办法,还是需要多看看错误日志,多找些资料结合着看。每个人的机器环境不一样,尽信书不如无书。也许山穷水尽疑无路的时候,也许再往前走一步,就柳暗花明又一村了。
    







评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值