Redhat AS 4 成功升级最新gcc

本文记录了在RedhatAS4系统中因Hadoop部署遇到的GCC版本问题,并详细分享了解决过程,包括所需依赖包的安装、配置及环境变量的设置。
好不容易拿到批机器部署hadoop1.0.1,却发现datanode的tasktracker死活启动不了,java还报了个fatal error,真莫名其妙。

这里再次佩服google的强大,x度真的啥都找不到。
tasktracker启动失败,最终找到原因:
hdfs的部分c底层,是针对gcc4.1构建,而Redhat AS 4系统中,最新的gcc是3.4。

那就动手升级gcc了。但这是个挺苦力的工作,gcc依赖挺多其他包,而且要重新编译。这里先列出gcc4.7依赖的一些包:

[b]1. glibc-devel[/b]
在编译gcc过程中,报错,说:
/usr/bin/ld: crti.o: No such file: No such file or directory

其实系统中存在这个文件,解决办法是,找到crti.o所属的包:
1)找到crti.o所在:
locate crti.o
/usr/lib64/crit.o
2)获得该文件所在包:
rpm -qf /usr/lib64/crit.o
glibc-devel-2.3.4-2.36
3)安装对应包:
yum install glibc-devel-2.3.4-2.36

[b]2. 安装xz[/b] http://tukaani.org/xz/xz-5.0.3.tar.gz
解压后,放在/home/hadoop/xz-5.0.3下
./configure --prefix=/home/hadoop/local
make
make install
跟着修改 ~/.bashrc:
export PATH=/usr/newgcc/bin:/home/hadoop/local/bin:$PATH
export LD_LIBRARY_PATH=/usr/newgcc/lib64:/home/hadoop/local/lib:$LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/usr/newgcc/lib:/home/hadoop/local/lib:$LD_LIBRARY_PATH

其中的/usr/newgcc是最后gcc安装的位置,这一次性的先添加到.bashrc。
之后,让设置生效:source ~/.bashrc
测试是否已经正确安装:输入:xz
则会有相关提示。


[b]3. 下载mpc、mpfr、gmp[/b]
1)mpfr http://www.mpfr.org/
2)mpc http://www.multiprecision.org/
3)gmp http://ftp.tsukuba.wide.ad.jp/software/gmp/gmp-5.0.0.tar.bz2

一般的操作时,分别编译这三个库,之后再编译gcc,但发现gcc官网有个偷懒的方法,就是把这些库解压后,分别改名为:gmp、mpc、mpfr后,mv到gcc源目录下,那么gcc在编译过程中,就会一同编译这3个库,原文:
http://gcc.gnu.org/install/prerequisites.html


[b]4. 之后可以编译安装gcc了[/b]
1)./configure --prefix=/usr/newgcc --enable-shared --enable-threads=posix --enable-checking --with-zlib=/home/hadoop/local/bin --enable-__cxa_atexit --disable-libunwind-exceptions --enable-java-awt=gtk --build=x86_64-redhat-linux --enable-languages=c,c++

这里的build参数,而非host参数,若是host则会报错,原因不明。


2)make
3)make install
之后输入:gcc -v
Using built-in specs.
COLLECT_GCC=gcc
COLLECT_LTO_WRAPPER=/usr/newgcc/libexec/gcc/x86_64-redhat-linux/4.7.0/lto-wrapper
Target: x86_64-redhat-linux
Configured with: ./configure --prefix=/usr/newgcc --enable-shared --enable-threads=posix --with-gmp=/home/hadoop/local/ --with-mpfr=/home/hadoop/local --with-mpc=/home/hadoop/local/ --enable-checking --with-zlib=/home/hadoop/local/bin --enable-__cxa_atexit --disable-libunwind-exceptions --enable-java-awt=gtk --build=x86_64-redhat-linux --enable-languages=c,c++
Thread model: posix
gcc version 4.7.0 (GCC)


说明已经安装成功。

PS:为了不同登录用户都能使用gcc,则需要修改对应用户home下的.bashrc

附上另外一位仁兄的文章,对老夫帮助很大:

http://blog.sina.com.cn/s/blog_4a0a8b5d01010u8l.html
同步定位与地图构建(SLAM)技术为移动机器人或自主载具在未知空间中的导航提供了核心支撑。借助该技术,机器人能够在探索过程中实时构建环境地图并确定自身位置。典型的SLAM流程涵盖传感器数据采集、数据处理、状态估计及地图生成等环节,其核心挑战在于有效处理定位与环境建模中的各类不确定性。 Matlab作为工程计算与数据可视化领域广泛应用的数学软件,具备丰富的内置函数与专用工具箱,尤其适用于算法开发与仿真验证。在SLAM研究方面,Matlab可用于模拟传感器输出、实现定位建图算法,并进行系统性能评估。其仿真环境能显著降低实验成本,加速算法开发与验证周期。 本次“SLAM-基于Matlab的同步定位与建图仿真实践项目”通过Matlab平台完整再现了SLAM的关键流程,包括数据采集、滤波估计、特征提取、数据关联与地图更新等核心模块。该项目不仅呈现了SLAM技术的实际应用场景,更为机器人导航与自主移动领域的研究人员提供了系统的实践参考。 项目涉及的核心技术要点主要包括:传感器模型(如激光雷达与视觉传感器)的建立与应用、特征匹配与数据关联方法、滤波器设计(如扩展卡尔曼滤波与粒子滤波)、图优化框架(如GTSAM与Ceres Solver)以及路径规划与避障策略。通过项目实践,参与者可深入掌握SLAM算法的实现原理,并提升相关算法的设计与调试能力。 该项目同时注重理论向工程实践的转化,为机器人技术领域的学习者提供了宝贵的实操经验。Matlab仿真环境将复杂的技术问题可视化与可操作化,显著降低了学习门槛,提升了学习效率与质量。 实践过程中,学习者将直面SLAM技术在实际应用中遇到的典型问题,包括传感器误差补偿、动态环境下的建图定位挑战以及计算资源优化等。这些问题的解决对推动SLAM技术的产业化应用具有重要价值。 SLAM技术在工业自动化、服务机器人、自动驾驶及无人机等领域的应用前景广阔。掌握该项技术不仅有助于提升个人专业能力,也为相关行业的技术发展提供了重要支撑。随着技术进步与应用场景的持续拓展,SLAM技术的重要性将日益凸显。 本实践项目作为综合性学习资源,为机器人技术领域的专业人员提供了深入研习SLAM技术的实践平台。通过Matlab这一高效工具,参与者能够直观理解SLAM的实现过程,掌握关键算法,并将理论知识系统应用于实际工程问题的解决之中。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值