[Hadoop] - Cannot run program "cmake"

本文介绍了在编译Hadoop过程中遇到的缺少cmake命令、找不到ZLIB库及OPENSSL库等问题的解决方法,包括使用yum命令安装所需的服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在编译hadoop的过程中,遇到缺少cmake命令的异常,异常信息为:Cannot run program "cmake" (in directory "/opt/workspaces/hadoop-3.0.0-alpha2-src/hadoop-common-project/hadoop-common/target/native"): error=2, No such file or directory;具体截图如下:

解决方案:安装cmake服务;当前系统环境:centos6.5 64位 1核2G

==================================================

方式一:直接通过yum命令进行安装(执行用户root)

yum install -y cmake

 

===================================================

再执行编译hadoop可能会再次遇到异常,具体描述信息为:Could NOT find ZLIB (missing: ZLIB_INCLUDE_DIR);具体截图如下:

解决方案:安装zlib服务,命令如下:

yum install -y zlib

yum -y install zlib-devel

 

==============================================================

继续执行,可能出现(missing: OPENSSL_LIBRARIES OPENSSL_INCLUDE_DIR) ,具体异常如下:

解决方案为添加依赖服务:

yum install -y openssl openssl-devel

 

===============================================================

 

转载于:https://www.cnblogs.com/liuming1992/p/6474435.html

### Hadoop DataNode 启动时日志文件缺失问题的解决方法 当启动 Hadoop DataNode 时,如果出现类似 `mv: cannot stat '/export/server/hadoop/logs/hadoop-hadoop-datanode-node1.out': No such file or directory` 的错误,通常是因为日志目录或相关文件未正确初始化。以下是详细的解决方法: #### 日志目录与权限检查 确保 Hadoop 配置中指定的日志目录存在,并且具有正确的权限。日志目录路径通常在 `hadoop-env.sh` 或 `log4j.properties` 文件中定义。可以通过以下命令检查和创建日志目录: ```bash mkdir -p /export/server/hadoop/logs chmod 755 /export/server/hadoop/logs chown hadoop:hadoop /export/server/hadoop/logs ``` 上述命令会递归创建日志目录并设置适当的权限[^1]。 #### 配置文件验证 验证 Hadoop 配置文件(如 `core-site.xml` 和 `hdfs-site.xml`)是否正确配置了日志路径。例如,在 `hdfs-site.xml` 中应包含以下内容: ```xml <property> <name>dfs.datanode.data.dir</name> <value>/path/to/datadir</value> </property> ``` 同时,确保 `hadoop-env.sh` 文件中设置了正确的日志路径变量: ```bash export HADOOP_LOG_DIR=/export/server/hadoop/logs ``` #### 清理临时文件 如果之前的运行留下了不一致的状态,可能导致日志文件无法正常生成。可以尝试清理临时文件和目录: ```bash rm -rf /tmp/hadoop-* ``` 此操作会删除 Hadoop 的临时文件,但不会影响实际数据存储[^1]。 #### 手动创建日志文件 如果日志文件确实不存在,可以手动创建所需的日志文件并赋予正确的权限: ```bash touch /export/server/hadoop/logs/hadoop-hadoop-datanode-node1.out chmod 644 /export/server/hadoop/logs/hadoop-hadoop-datanode-node1.out chown hadoop:hadoop /export/server/hadoop/logs/hadoop-hadoop-datanode-node1.out ``` #### 检查 DataNode 启动日志 重新启动 HDFS 服务后,检查 DataNode 的启动日志以确认问题是否解决: ```bash start-dfs.sh tail -f /export/server/hadoop/logs/hadoop-hadoop-datanode-node1.log ``` 通过查看日志文件,可以进一步定位是否存在其他潜在问题[^1]。 #### 其他可能原因 如果上述方法仍无法解决问题,可能是由于集群配置不一致或节点间通信异常。需要确保所有节点的 `clusterID` 一致,并且网络连接正常。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值