【flink配置系列】 taskmanager-job-deployment.yaml 功能源码详解

本文详细解读了taskmanager-job-deployment.yaml配置文件,用于在Kubernetes中部署FlinkTaskManager,包括副本数设置、标签匹配、容器配置、端口映射、活跃探测和卷挂载等关键部分。

taskmanager-job-deployment.yaml

配置文件主要功能

这个配置文件是用于部署 Flink TaskManager 的 Kubernetes Deployment。

  • 定义了一个名为 flink-taskmanager 的 Deployment。
  • 设置副本数为 2,即启动两个 TaskManager 实例。
  • 使用标签选择器 app: flinkcomponent: taskmanager 来匹配对应的 Pod。
  • 在 Pod 模板中定义了一个名为 taskmanager 的容器,使用 apache/flink:latest 镜像。
  • 将容器的 RPC 端口映射到容器的 6122 端口。
  • 配置了一个活跃探测(liveness probe),通过 TCP Socket 探测容器的 6122 端口,延迟 30 秒后开始探测,每 60 秒进行一次探测。
  • 挂载名为 flink-config-volume 的卷到容器的 /opt/flink/conf/ 目录,该卷来自 ConfigMap flink-config 中的两个文件。
  • 挂载名为 job-artifacts-volume 的卷到容器的 /opt/flink/usrlib 目录,该卷是宿主机上作业所需的文件路径。

配置文件加上中文注释

apiVersion: apps/v1
kind: Deployment
metadata:
  name: flink-taskmanager   # Deployment 的名称
spec:
  replicas: 2             # 设置副本数为 2,即启动两个 TaskManager 实例
  selector:
    matchLabels:
      app: flink          # 匹配标签为 app=flink 的 Pod
      component: taskmanager  # 匹配标签为 component=taskmanager 的 Pod
  template:
    metadata:
      labels:
        app: flink         # 在 Pod 模板中设置标签 app=flink
        component: taskmanager  # 在 Pod 模板中设置标签 component=taskmanager
    spec:
      containers:
      - name: taskmanager   # 容器名称为 taskmanager
        image: apache/flink:latest  # 使用 apache/flink:latest 镜像
        env:
        args: ["taskmanager"]  # 启动参数为 "taskmanager"
        ports:
        - containerPort: 6122  # 将容器的 6122 端口映射为 RPC 端口
          name: rpc
        livenessProbe:  # 配置活跃探测
          tcpSocket:
            port: 6122     # 通过 TCP Socket 探测容器的 6122 端口
          initialDelaySeconds: 30  # 延迟 30 秒后开始进行探测
          periodSeconds: 60        # 每 60 秒进行一次探测
        volumeMounts:
        - name: flink-config-volume  # 挂载名为 flink-config-volume 的卷到容器的 /opt/flink/conf/ 目录
          mountPath: /opt/flink/conf/
        - name: job-artifacts-volume  # 挂载名为 job-artifacts-volume 的卷到容器的 /opt/flink/usrlib 目录
          mountPath: /opt/flink/usrlib
        securityContext:
          runAsUser: 9999  # 将容器的用户 ID 设置为 9999(根据官方 flink 镜像的用户 _flink_),如有需要可进行更改
      volumes:
      - name: flink-config-volume   # 定义名为 flink-config-volume 的卷
        configMap:
          name: flink-config   # 从 ConfigMap flink-config 中获取卷的内容
          items:
          - key: flink-conf.yaml
            path: flink-conf.yaml
          - key: log4j-console.properties
            path: log4j-console.properties
      - name: job-artifacts-volume   # 定义名为 job-artifacts-volume 的卷
        hostPath:
          path: /host/path/to/job/artifacts   # 设置宿主机上作业所需的文件路径

官方链接

org.apache.flink.client.program.ProgramInvocationException: The main method caused an error: Could not deploy Yarn job cluster. at org.apache.flink.client.program.PackagedProgram.callMainMethod(PackagedProgram.java:366) ~[flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at org.apache.flink.client.program.PackagedProgram.invokeInteractiveModeForExecution(PackagedProgram.java:219) ~[flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at org.apache.flink.client.ClientUtils.executeProgram(ClientUtils.java:114) ~[flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at org.apache.flink.client.cli.CliFrontend.executeProgram(CliFrontend.java:842) ~[flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at org.apache.flink.client.cli.CliFrontend.run(CliFrontend.java:246) ~[flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at org.apache.flink.client.cli.CliFrontend.parseAndRun(CliFrontend.java:1084) ~[flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at com.huawei.bigdata.job.action.FlinkClient.lambda$flinkClientSubmit$0(FlinkClient.java:64) ~[executor-job-flink-1.0.jar:?] at java.security.AccessController.doPrivileged(Native Method) ~[?:1.8.0_372] at javax.security.auth.Subject.doAs(Subject.java:422) [?:1.8.0_372] at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1761) [flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at org.apache.flink.runtime.security.contexts.HadoopSecurityContext.runSecured(HadoopSecurityContext.java:41) [flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at com.huawei.bigdata.job.action.FlinkClient.flinkClientSubmit(FlinkClient.java:64) [executor-job-flink-1.0.jar:?] at com.huawei.bigdata.job.action.FlinkMain.runJob(FlinkMain.java:200) [executor-job-flink-1.0.jar:?] at com.huawei.bigdata.job.action.LauncherMain.submit(LauncherMain.java:93) [executor-job-core-1.0.jar:?] at com.huawei.bigdata.job.action.LauncherMain.run(LauncherMain.java:49) [executor-job-core-1.0.jar:?] at com.huawei.bigdata.job.action.FlinkMain.main(FlinkMain.java:108) [executor-job-flink-1.0.jar:?] at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) ~[?:1.8.0_372] at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) ~[?:1.8.0_372] at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) ~[?:1.8.0_372] at java.lang.reflect.Method.invoke(Method.java:498) ~[?:1.8.0_372] at com.huawei.bigdata.job.LauncherAM.run(LauncherAM.java:126) [executor-job-core-1.0.jar:?] at com.huawei.bigdata.job.LauncherAM$1.run(LauncherAM.java:105) [executor-job-core-1.0.jar:?] at java.security.AccessController.doPrivileged(Native Method) ~[?:1.8.0_372] at javax.security.auth.Subject.doAs(Subject.java:422) [?:1.8.0_372] at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1761) [flink-dist_2.11-1.12.2-hw-ei-312091.jar:1.12.2-hw-ei-312091] at com.huawei.bigdata.job.LauncherAM.main(LauncherAM.java:101) [executor-job-core-1.0.jar:?] Caused by: org.apache.flink.client.deployment.ClusterDeploymentException: Could not deploy Yarn job cluster.
最新发布
06-18
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BigDataMLApplication

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值