Flink2.0 配置 historyserver

Flink2.0 配置 historyserver 主要是去修改config.yaml配置文件 主要修改的点有两个 网上很多文档都是写的只配置一个 都是坑啊

historyserver :历史服务器
运行 Flink job 的集群一旦停止(例如yarn模式,程序一旦停止,集群也就关闭了),只能去 yarn 或本地磁盘上查看日志,不再可以查看作业挂掉之前的运行的 Web UI,很难清楚知道作业在挂的那一刻到底发生了什么。如果我们还没有 Metrics 监控的话,那么完全就只能通过日志去分析和定位问题了,所以如果能还原之前的 Web UI,我们可以通过 UI 发现和定位一些问题。

Flink提供了历史服务器,用来在相应的 Flink 集群关闭后查询已完成作业的统计信息。我们都知道只有当作业处于运行中的状态,才能够查看到相关的WebUI统计信息。通过 History Server 我们才能查询这些已完成作业的统计信息,无论是正常退出还是异常退出。

1:

jobmanager:
  # interface, such as 0.0.0.0.
  bind-host: 0.0.0.0
  rpc:
    # JobManager runs.
    address: cdh1
    # The RPC port where the JobManager is reachable.
    port: 6123
  memory:
    process:
      # The total process memory size for the JobManager.
      # Note this accounts for all memory usage within the JobManager process, including JVM metaspace and other overhead.
      size: 1600m
  execution:
    failover-strategy: region
  archive:
    fs:
      dir: hdfs://cdh1:8020/flink-2.0/completed-jobs // 
### Flink 2.0 的新特性和使用指南 #### 新特性概述 Flink 2.0 是 Apache Flink 社区的一个重要里程碑,旨在提升其作为统一计算引擎的能力。以下是几个主要的新特性: - **增强的 SQL 支持**:Flink 2.0 提供了更强大的 SQL 查询能力,支持更多的标准 SQL 特性,使得开发者可以更容易地编写复杂的查询逻辑[^1]。 - **状态管理优化**:通过引入新的状态后端接口和存储机制,Flink 2.0 能够更好地处理大规模的状态数据,从而提高系统的稳定性和性能。 - **资源调度灵活性**:新增加的任务调度策略允许用户根据不同的工作负载动态调整资源配置,这有助于减少延迟并最大化吞吐量。 - **跨平台兼容性改进**:为了适应多样化的运行环境,新版增加了对多种云服务提供商的支持,并改善了与其他大数据生态组件之间的互操作性。 #### 安装教程 对于希望尝试 Flink 2.0 的用户来说,可以从官方仓库下载最新的二进制包或者源码编译得到可执行程序。具体步骤如下所示: 1. 访问 [Apache Flink官网](https://flink.apache.org/) 获取最新版本; 2. 下载对应操作系统架构下的 tar.gz 文件; 3. 解压到目标目录并通过配置 `conf/flink-conf.yaml` 来设置集群参数; ```bash wget https://archive.apache.org/dist/flink/flink-X.Y.Z/flink-X.Y.Z-bin-scala_2.12.tgz tar -xzvf flink-X.Y.Z-bin-scala_2.12.tgz cd flink-X.Y.Z/ ./bin/start-cluster.sh ``` 以上命令展示了如何启动一个本地测试模式的小规模集群实例。 #### 升级指南 当从旧版迁移到 Flink 2.0 时,请注意以下几点事项以确保平滑过渡: - 阅读完整的发行说明文档来识别可能影响现有作业的行为变更; - 测试所有关键路径上的应用案例,在生产环境中部署之前验证它们的功能正确性; - 如果正在使用的某些 API 已被废弃,则需按照迁移指导更新代码库。 ```java // 示例 Java 应用程序片段展示如何创建简单的 WordCount 实现方式之一 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); DataStream<String> text = env.fromElements("To be or not to be", "That is the question"); text.flatMap(new Tokenizer()).keyBy(value -> value.f0).sum(1).print(); env.execute("Word Count Example"); public static class Tokenizer implements FlatMapFunction<String, Tuple2<String, Integer>> { @Override public void flatMap(String sentence, Collector<Tuple2<String,Integer>> out){ String[] tokens=sentence.toLowerCase().split("\\W+"); for (String token : tokens) {if (!token.isEmpty())out.collect(Tuple2.of(token,1));} } } ``` 上述代码提供了一个基础示例,演示了如何利用 Flink 进行单词计数任务。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值