flink 报错:InvalidResourceRequestException

Flink YARN 资源请求异常解决

1.运行命令:./yarn-session.sh -n 4 -tm 1024 -s 8  

报错堆栈轨迹如下:

2018-12-13 15:41:23,092 ERROR org.apache.flink.yarn.YarnFlinkResourceManager                - FATAL ERROR IN YARN APPLICATION MASTER: Connection to YARN Resource Manager failed
org.apache.hadoop.yarn.exceptions.InvalidResourceRequestException: Invalid resource request, requested virtual cores < 0, or requested virtual cores > max configured, requestedVirtualCores=8, maxVirtualCores=4
        at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerUtils.validateResourceRequest(SchedulerUtils.java:258)
        at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerUtils.normalizeAndValidateRequest(SchedulerUtils.java:226)
        at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerUtils.normalizeAndvalidateRequest(SchedulerUtils.java:233)
        at org.apache.hadoop.yarn.server.resourcemanager.RMServerUtils.normalizeAndValidateRequests(RMServerUtils.java:100)
        at org.apache.hadoop.yarn.server.resourcemanager.ApplicationMasterService.allocate(ApplicationMasterService.java:507)
        at org.apache.hadoop.yarn.api.impl.pb.service.ApplicationMasterProtocolPBServiceImpl.allocate(ApplicationMasterProtocolPBServiceImpl.java:60)
        at org.apache.hadoop.yarn.proto.ApplicationMasterProtocol$ApplicationMasterProtocolService$2.callBlockingMethod(ApplicationMasterProtocol.java:99)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:617)
        at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1073)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2226)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2222)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:422)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)
        at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2220)

        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
        at org.apache.hadoop.yarn.ipc.RPCUtil.instantiateException(RPCUtil.java:53)
        at org.apache.hadoop.yarn.ipc.RPCUtil.unwrapAndThrowException(RPCUtil.java:101)
        at org.apache.hadoop.yarn.api.impl.pb.client.ApplicationMasterProtocolPBClientImpl.allocate(ApplicationMasterProtocolPBClientImpl.java:79)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:498)
        at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:187)
        at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
        at com.sun.proxy.$Proxy16.allocate(Unknown Source)
        at org.apache.hadoop.yarn.client.api.impl.AMRMClientImpl.allocate(AMRMClientImpl.java:278)
        at org.apache.hadoop.yarn.client.api.async.impl.AMRMClientAsyncImpl$HeartbeatThread.run(AMRMClientAsyncImpl.java:224)
Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.yarn.exceptions.InvalidResourceRequestException): Invalid resource request, requested virtual cores < 0, or requested virtual cores > max configured, requestedVirtualCores=8, maxVirtualCores=4
        at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerUtils.validateResourceRequest(SchedulerUtils.java:258)
        at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerUtils.normalizeAndValidateRequest(SchedulerUtils.java:226)
        at org.apache.hadoop.yarn.server.resourcemanager.scheduler.SchedulerUtils.normalizeAndvalidateRequest(SchedulerUtils.java:233)
        at org.apache.hadoop.yarn.server.resourcemanager.RMServerUtils.normalizeAndValidateRequests(RMServerUtils.java:100)
        at org.apache.hadoop.yarn.server.resourcemanager.ApplicationMasterService.allocate(ApplicationMasterService.java:507)
        at org.apache.hadoop.yarn.api.impl.pb.service.ApplicationMasterProtocolPBServiceImpl.allocate(ApplicationMasterProtocolPBServiceImpl.java:60)
        at org.apache.hadoop.yarn.proto.ApplicationMasterProtocol$ApplicationMasterProtocolService$2.callBlockingMethod(ApplicationMasterProtocol.java:99)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:617)
        at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1073)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2226)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2222)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:422)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)
        at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2220)

        at org.apache.hadoop.ipc.Client.call(Client.java:1470)
        at org.apache.hadoop.ipc.Client.call(Client.java:1401)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:232)
        at com.sun.proxy.$Proxy15.allocate(Unknown Source)
        at org.apache.hadoop.yarn.api.impl.pb.client.ApplicationMasterProtocolPBClientImpl.allocate(ApplicationMasterProtocolPBClientImpl.java:77)
        ... 9 more

2.解决办法:

加大yarn.scheduler.maximum-allocation-vcores的值,(我配置成了yarn.nodemanager.resource.cpu-vcores的值,每台机器提供给yarn的cpu数量。)然后重启yarn。

yarn.scheduler.maximum-allocation-vcores:默认4

官网释义:The maximum allocation for every container request at the RM, in terms of virtual CPU cores. Requests higher than this will throw a InvalidResourceRequestException.

因为./yarn-session.sh -n 4 -tm 1024 -s 8 ,分配了4个taskmanager,每个taskmanager占用一个container,分配1024 memory(这个值若小于yarn.scheduler.minimum-allocation-mb,则会变为yarn.scheduler.minimum-allocation-mb的值)和8 cpu,因此加大yarn.scheduler.maximum-allocation-vcores的值能解决问题。

3.再次运行ok

注:意外发现,这个yarn.scheduler.maximum-allocation-vcores是集群的参数,即使客户端参数未修改,也不影响该参数生效。

 

 

<think>嗯,用户遇到了在安装Apache Flink时pip子进程报错的问题,显示“build dependencies did not run successfully”。首先,我需要分析可能的原因。根据提供的引用,特别是引用[1]提到的pandas依赖问题,可能和Python环境或依赖项有关。用户可能缺少某些构建工具或开发库,比如Python.h头文件,或者meson构建系统的问题。 接下来,考虑用户的Python版本和pip版本是否兼容。引用[3]显示用户使用的是Python 3.8和pip 19.2.3。可能版本过旧,需要升级pip。另外,安装apache-flink可能需要特定的环境,比如正确配置的Java环境,但用户的问题可能更偏向Python方面的依赖。 然后,查看引用[2]中的安装命令,用户尝试了不同的pip命令,但依然失败。可能缺少系统级依赖,比如gcc、python3-dev等。另外,权限问题也可能导致安装失败,用户是否在虚拟环境中,或者是否需要使用sudo? 还要考虑Apache Flink的Python包是否支持用户当前的操作系统或Python版本。可能需要在文档中确认兼容性。此外,根据引用[4]的类加载错误,可能和Scala版本有关,但用户的问题发生在安装阶段,所以可能不相关。 用户可能需要安装meson和ninja,因为构建过程中报错提到了meson.build的问题。此外,确保所有开发依赖已安装,比如pandas的构建依赖。 总结可能的解决步骤:升级pip,安装系统依赖,使用虚拟环境,指定安装选项,或者尝试源码安装。需要逐步指导用户检查每个环节,确保环境配置正确。</think>### 逐步解决方案 #### 1. **检查Python与pip版本兼容性** - Apache Flink的Python库可能对Python和pip版本有特定要求。确保Python版本≥3.6且pip≥20.3: ```bash python3 -V # 检查Python版本(引用[3]显示用户为3.8) pip3 -V # 检查pip版本(引用[3]显示为19.2.3,需升级) ``` **升级pip**: ```bash python3 -m pip install --upgrade pip ``` #### 2. **安装系统级构建依赖** - 构建Python包时可能缺少编译工具或头文件(如`Python.h`)[^1]: **Ubuntu/Debian**: ```bash sudo apt-get install python3-dev build-essential gcc meson ninja-build ``` **CentOS/RHEL**: ```bash sudo yum install python3-devel gcc meson ninja-build ``` #### 3. **使用虚拟环境隔离依赖** - 避免全局环境污染,新建虚拟环境: ```bash python3 -m venv flink-env source flink-env/bin/activate pip install wheel # 确保wheel包已安装 ``` #### 4. **尝试指定安装选项** - 若依赖冲突(如pandas版本问题),跳过二进制包: ```bash pip install apache-flink --no-binary :all: -i https://pypi.org/simple ``` - 或指定`--use-pep517`强制使用新构建系统: ```bash pip install apache-flink --use-pep517 ``` #### 5. **手动安装依赖项** - 分步安装核心依赖,例如`pandas`和`pyarrow`: ```bash pip install numpy pandas pyarrow pip install apache-flink # 最后再尝试安装 ``` #### 6. **检查Java环境兼容性** - Apache Flink依赖Java 8/11,需验证`JAVA_HOME`配置: ```bash echo $JAVA_HOME # 输出应为Java路径,如/usr/lib/jvm/java-11-openjdk java -version # 检查版本是否符合要求 ``` #### 7. **参考官方文档或源码安装** - 若问题持续,从源码构建: ```bash git clone https://github.com/apache/flink.git cd flink/python pip install -e . # 可编辑模式安装 ``` --- ### 相关问题 1. **如何验证Apache Flink Python库是否安装成功?** - 运行`python -c "from pyflink.datastream import StreamExecutionEnvironment"`若无报错则成功。 2. **安装过程中出现`meson.build`错误如何彻底解决?** - 需确保`meson≥0.60.0`和`ninja≥1.10.0`,并通过`pip install meson ninja`更新。 3. **如何排查Python包安装时的权限问题?** - 使用`--user`标志或在虚拟环境中安装以避免系统目录权限限制。 --- ### 引用标识 [^1]: 报错涉及`pandas`的`meson.build`依赖问题,需检查构建工具链。 [^2]: 安装命令建议使用`python3 -m pip`确保调用正确的Python环境。 [^3]: 用户当前Python版本为3.8,需确认兼容性。 [^5]: 系统环境配置(如防火墙)可能间接影响依赖下载,但此问题更可能由本地构建环境导致。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值