CDH/YRAN_集群调优

  参考文章 : 

1.yarn资源memory与core计算配置

https://www.cnblogs.com/xjh713/p/9855238.html

 

2.cdh之调整YARN(调优yarn 生产必做优化项)004

https://blog.youkuaiyun.com/weixin_33788244/article/details/91669894

 

内存相关参数

 

  我们在运行使用CDH平台的时候,需要对YARN 的资源配置进行一定的调整。下面我们看一下相关的参数 ,主要的涉及到的参数为 内存 与 cpu 相关的参数 。

 

计算每台机器拥有的container 数量 :

containers = min (2*CORES, 1.8*DISKS, (Total available RAM) / MIN_CONTAINER_SIZE)

 说明:

CORES为机器CPU核数

DISKS为机器上挂载的磁盘个数

Total available RAM为机器总内存

MIN_CONTAINER_SIZE是指container最小的容量大小,这需要根据具体情况去设置,可以参考下面的表格:

 

每个container的平均使用内存大小计算方式为:

RAM-per-container = max(MIN_CONTAINER_SIZE, (Total Available RAM) / containers)) 

 

相关参数配置说明

 

  • yarn.nodemanager.resource.memory-mb

表示该节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。

 

  • yarn.nodemanager.vmem-pmem-ratio

    任务每使用1MB物理内存,最多可使用虚拟内存量,默认是2.1。

 

  • yarn.nodemanager.pmem-check-enabled

    是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true。

 

  • yarn.nodemanager.vmem-check-enabled

   是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true。

 

  •   yarn.scheduler.minimum-allocation-mb

   单个container可申请的最少物理内存量,默认是1024(MB),如果一个任务申请的物理内存量少于该值,则该对应的值改为这个数。

 

  • yarn.scheduler.maximum-allocation-mb

    单个container可申请的最多物理内存量,默认是8192(MB)。

 

  • yarn.scheduler.increment-allocation-mb

   容器内存增量, 默认是512 (MB)

 

  AppMaster 的对应配置项见最后面!!! 

 

    默认情况下,YARN采用了线程监控的方法判断任务是否超量使用内存,一旦发现超量,则直接将其杀死。由于Cgroups对内存的控制缺乏灵活性(即任务任何时刻不能超过内存上限,如果超过,则直接将其杀死或者报OOM),而Java进程在创建瞬间内存将翻倍,之后骤降到正常值,这种情况下,采用线程监控的方式更加灵活(当发现进程树内存瞬间翻倍超过设定值时,可认为是正常现象,不会将任务杀死),因此YARN未提供Cgroups内存隔离机制。

 

 

 

 

 

CPU 相关参数

 

   在yarn中使用的是虚拟CPU,这里的虚拟CPU是YARN自己引入的概念,初衷是,考虑到不同节点的CPU性能可能不同,每个CPU具有的计算能力也是不一样的,比如某个物理CPU的计算能力可能是另外一个物理CPU的2倍,这时候,你可以通过为第一个物理CPU多配置几个虚拟CPU弥补这种差异。用户提交作业时,可以指定每个任务需要的虚拟CPU个数。在YARN中,CPU相关配置参数如下:

  • yarn.nodemanager.resource.cpu-vcores

    表示该节点上YARN可使用的虚拟CPU个数,默认是8,注意,目前推荐将该值设值为与物理CPU核数数目相同。
    如果你的节点CPU核数不够8个,则需要调减小这个值,而YARN不会智能的探测节点的物理CPU总数。

 

  • yarn.scheduler.minimum-allocation-vcores

    单个任务可申请的最小虚拟CPU个数,默认是1,如果一个任务申请的CPU个数少于该数,则该对应的值改为这个数。

 

  • yarn.scheduler.maximum-allocation-vcores

    单个任务可申请的最多虚拟CPU个数,默认是32。

 

 默认情况下,YARN是不会对CPU资源进行调度的,你需要配置相应的资源调度器让你支持,具体参看以下链接:

1. Hadoop YARN配置参数剖析(4)—Fair Scheduler相关参数

2. Hadoop YARN配置参数剖析(5)—Capacity Scheduler相关参数

 

   默认情况下,NodeManager不会对CPU资源进行任何隔离,你可以通过启用Cgroups让你支持CPU隔离。

由于CPU资源的独特性,目前这种CPU分配方式仍然是粗粒度的。举个例子,很多任务可能是IO密集型的,消耗的CPU资源非常少,如果此时你为它分配一个CPU,则是一种严重浪费,你完全可以让他与其他几个任务公用一个CPU,也就是说,我们需要支持更粒度的CPU表达方式。

  借鉴亚马逊EC2中CPU资源的划分方式,即提出了CPU最小单位为EC2 Compute Unit(ECU),一个ECU代表相当于1.0-1.2 GHz 2007 Opteron or 2007 Xeon处理器的处理能力。YARN提出了CPU最小单位YARN Compute Unit(YCU),目前这个数是一个整数,默认是720,由参数yarn.nodemanager.resource.cpu-ycus-per-core设置,表示一个CPU core具备的计算能力(该feature在2.2.0版本中并不存在,可能增加到2.3.0版本中),这样,用户提交作业时,直接指定需要的YCU即可,比如指定值为360,表示用1/2个CPU core,实际表现为,只使用一个CPU core的1/2计算时间。注意,在操作系统层,CPU资源是按照时间片分配的,你可以说,一个进程使用1/3的CPU时间片,或者1/5的时间片。对于CPU资源划分和调度的探讨,可参考以下几个链接:

https://issues.apache.org/jira/browse/YARN-1089

https://issues.apache.org/jira/browse/YARN-1024

Hadoop 新特性、改进、优化和Bug分析系列5:YARN-3

 

  AppMaster 的对应配置项见最后面!!! 

 

 

 

 

AppMaster 相关的参数

 

  • yarn.app.mapreduce.am.resource.cpu-vcores

ApplicationMaster 虚拟 CPU 内核, 默认值 1 //推荐值

 

  • yarn.app.mapreduce.am.resource.mb

ApplicationMaster 内存,默认值 1024M

 

  • yarn.app.mapreduce.am.command-opts

ApplicationMaster Java 选项库, yarn.app.mapreduce.am.command-opts = -Djava.net.preferIPv4Stack=true -Xmx768m

// cluster1 上 将zookeeper 解压到/usr/local 目录下,配置环境变量 # vi /etc/profile // 添加以下内容 export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6 export PATH=$ZOOKEEPER_HOME/bin:$PATH # cd /usr/local/zookeeper-3.4.6 // 在 conf 中新建zoo.cfg 文件 # vi conf/zoo.cfg // 输入以下内容 # 客户端心跳时间(毫秒) tickTime=2000 # 允许心跳间隔的最大时间 initLimit=10 # 同步时限 syncLimit=5 # 据存储目录 dataDir=/home/hadoop_files/hadoop_data/zookeeper # 据日志存储目录 dataLogDir=/home/hadoop_files/hadoop_logs/zookeeper/dataLog # 端口号 clientPort=2181 # 集群节点服务端口配置 server.1=cluster1:2888:3888 server.2=cluster2:2888:3888 server.3=cluster3:2888:3888 // 创建 zookeeper 的据存储目录日志存储目录 14 大据技术课程笔记本虚拟机搭建Hadoop集群操作文档 # mkdir -p /home/hadoop_files/hadoop_data/zookeeper # mkdir -p /home/hadoop_files/hadoop_logs/zookeeper/dataLog # mkdir -p /home/hadoop_files/hadoop_logs/zookeeper/logs // 修改文件夹的权限 # chown -R hadoop:hadoop /home/hadoop_files # chown -R hadoop:hadoop /usr/local/zookeeper-3.4.6 // 在 cluster1 号服务器的 data 目录中创建一个文件myid,输入内容为1 // myid 应与zoo.cfg 中的集群节点相匹配 # echo "1" >> /home/hadoop_files/hadoop_data/zookeeper/myid // 修改 zookeeper 的日志输出路径(注意CDH版与原生版配置文件不同) # vi bin/zkEnv.sh // 将配置文件里面的以下项替换为红字的内容 if [ "x${ZOO_LOG_DIR}" = "x" ] then ZOO_LOG_DIR="/home/hadoop_files/hadoop_logs/zookeeper/logs" fi if [ "x${ZOO_LOG4J_PROP}" = "x" ] then ZOO_LOG4J_PROP="INFO,ROLLINGFILE" fi // 修改 zookeeper 的日志配置文件 # vi conf/log4j.properties // 修改为以下内容: zookeeper.root.logger=INFO,ROLLINGFILE log4j.appender.ROLLINGFILE=org.apache.log4j.DailyRollingFileAppender 将这个zookeeper-3.4.6 的目录复制到其他的两个节点上 # scp -r /usr/local/zookeeper-3.4.6 cluster2:/usr/local/ # scp -r /usr/local/zookeeper-3.4.6 cluster3:/usr/local/ // 退回 hadoop 用户 # exit // 刷新环境变量 $ source /etc/profile 完成了这些操作,启动时出现了JMX enabled by default Using config: /usr/local/zookeeper-3.4.6/bin/../conf/zoo.cfg Starting zookeeper ... /usr/local/zookeeper-3.4.6/bin/zkServer.sh: line 113: /home/hadoop_er.pid: Permission denied FAILED TO WRITE PID
最新发布
03-24
<think>嗯,用户遇到了在启动Zookeeper时出现的权限问题,提示无法写入PID文件。首先,我需要理清整个配置过程,看看哪里可能出错了。用户按照步骤解压Zookeeper到指定目录,配置了环境变量,修改了日志路径,并复制到其他节点。然后启动时出现了权限被拒绝的错误,特别是在写入PID文件时。 首先,PID文件通常由Zookeeper的服务脚本zkServer.sh生成,默认路径可能是在据目录或者Zookeeper的根目录下。用户遇到的错误信息显示路径是/home/hadoop_er.pid,但根据之前的配置,据目录应该是/home/hadoop_files/hadoop_data/zookeeper,所以这里可能存在路径配置错误或者脚本中的变量问题。 接下来,检查zkServer.sh脚本的第113行。用户提到错误信息指向这一行,可能是因为脚本中设置PID文件的路径时没有正确的变量引用,导致PID文件被尝试写入到没有权限的目录,比如用户主目录而不是指定的据目录。例如,如果脚本中的PID路径变量未正确配置,可能会默认到当前用户的家目录,而hadoop用户可能没有在该目录写入的权限。 另外,用户使用root用户操作后切换回hadoop用户,可能目录权限设置不当。虽然用户执行了chown -R hadoop:hadoop 对相关目录,但可能PID文件尝试写入的目录没有被正确授权。比如,如果PID文件路径是/home/hadoop_files/hadoop_data/zookeeper,需要确认hadoop用户是否有写权限。 还可能是在环境变量中ZOOPIDFILE没有被正确设置,导致脚本使用默认路径。或者,在zkServer.sh中,生成PID文件的路径拼接错误,比如使用了相对路径,导致实际路径不在预期的位置。 解决方案方面,首先检查zkServer.sh脚本中关于PID文件路径的部分,确认其是否指向了正确的目录,并且hadoop用户有权限写入。可能需要手动设置ZOO_PID_DIR环境变量,或者在脚本中修改PID路径到有权限的目录。另外,确保所有相关目录(如据目录、日志目录)的所有权权限正确设置,尤其是执行启动命令的用户是否有足够的权限。</think>以下是针对Zookeeper启动时出现`Permission denied`问题的逐步解决方案: --- ### **问题原因分析** 错误日志`/home/hadoop_er.pid: Permission denied`表明: 1. Zookeeper尝试将进程ID(PID)文件写入到`/home`目录下的`hadoop_er.pid` 2. 当前用户(hadoop)对`/home`目录没有写入权限 --- ### **解决方法** #### **步骤1:定位PID文件路径配置** Zookeeper默认将PID文件存储在`$ZOO_PID_DIR`目录下。检查以下文件配置: ```bash # 查看zkServer.sh中PID路径定义(重点关注第113行) vi /usr/local/zookeeper-3.4.6/bin/zkServer.sh ``` 找到类似以下配置片段: ```bash ZOO_PID_DIR="$(dirname "$ZOO_PIDFILE")" ``` --- #### **步骤2:修改PID文件存储路径** 需将PID文件存储到有权限的目录(如Zookeeper据目录): ```bash # 编辑zkServer.sh,在文件开头添加环境变量定义 export ZOO_PID_DIR=/home/hadoop_files/hadoop_data/zookeeper export ZOO_PID_FILE=$ZOO_PID_DIR/zookeeper_server.pid ``` 或直接在脚本中找到`ZOO_PIDFILE`赋值行,修改为: ```bash ZOO_PIDFILE="$ZOO_PID_DIR/zookeeper_server.pid" ``` --- #### **步骤3:验证目录权限** 确保目标目录归属hadoop用户且权限正确: ```bash # 检查目录所有权 chown -R hadoop:hadoop /home/hadoop_files # 检查目录权限(需至少755) chmod 755 /home/hadoop_files/hadoop_data/zookeeper ``` --- #### **步骤4:同步修改到所有节点** ```bash # 将修改后的zkServer.sh复制到其他节点 scp /usr/local/zookeeper-3.4.6/bin/zkServer.sh cluster2:/usr/local/zookeeper-3.4.6/bin/ scp /usr/local/zookeeper-3.4.6/bin/zkServer.sh cluster3:/usr/local/zookeeper-3.4.6/bin/ ``` --- #### **步骤5:重新启动Zookeeper** ```bash # 切换回hadoop用户 su hadoop # 启动服务(需在所有节点执行) zkServer.sh start # 检查状态 zkServer.sh status ``` --- ### **补充说明** 1. **日志路径问题**:如果仍存在日志权限错误,检查`ZOO_LOG_DIR`配置: ```bash # 确保日志目录存在且可写 mkdir -p /home/hadoop_files/hadoop_logs/zookeeper/logs chmod 755 /home/hadoop_files/hadoop_logs/zookeeper/logs ``` 2. **配置一致性**:所有节点的`myid`文件需分别设置为1、2、3,且与`zoo.cfg`中`server.x`对应 --- 通过以上步骤,权限问题应得到解决。如果仍报错,可通过`tail -f /home/hadoop_files/hadoop_logs/zookeeper/logs/zookeeper.log`查看详细日志。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值