flink1.17.1安装记录

在两台虚拟机Hadoop100和Hadoop101上安装Flink,包括下载、解压、配置flink-conf.yaml、修改masters和workers文件,通过scp命令分发到从节点,设置环境变量,启动集群。遇到问题如浏览器访问拒绝和AvailableTaskSlots为0,分别通过修改rest.bind-address和jobmanager.bind-host解决。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、下载并上传至虚拟机hadoop100

虚拟机有两台:hadoop100(主),hadoop101(从)

Apache Downloads

2、解压到安装目录,并修改主文件夹为flink

 tar zxvf /tempupload/flink-1.17.1-bin-scala_2.12.tgz -C /opt/module
 mv flink-1.17.1 flink

 3、修改conf下的配置文件

flink-conf.yaml文件:

jobmanager.rpc.address: localhost

改成自己的主机名

jobmanager.rpc.address: hadoop100

(说明:jobmanager节点地址,也是master节点地址)

masters文件:

localhost:8081

改成

hadoop100:8081

works文件

localhost
改成
hadoop101

4、将hadoop100上的flink分发到节点hadoop101

scp -r flink hadoop101:/opt/module

5、配置环境变量,修改/etc/profile

#flink
export FLINK_HOME=/opt/module/flink
export PATH=$PATH:$FLINK_HOME/bin
//使配置文件生效
source /etc/profile

6、启动集群

start-cluster.sh

7、本机浏览器访问

http://hadoop100:8081/

 

 

 

 

碰到的问题:

1、浏览器访问提示拒绝访问

处理:flink-conf.yaml修改rest.bind-address: 0.0.0.0。

 参考:【linux 安装flink 防火墙关闭但无法访问web网页(8081)】-优快云博客

2、Available Task Slots为0

处理:flink-conf.yaml修改jobmanager.bind-host: 0.0.0.0

参考:flink-standalone模式启动后Available Task Slots都显示0_@假装的博客-优快云博客

安装参考:Flink三种安装部署方式(HA)_flink安装_小学僧丶Monk的博客-优快云博客

### Flink 1.17.1 安装教程 #### 1. 下载 Flink 访问官方镜像站点获取对应版本的压缩包,并通过命令行工具完成下载操作: ```bash wget https://archive.apache.org/dist/flink/flink-1.17.1/flink-1.17.1-bin-scala_2.12.tgz ``` 此链接提供的是 Scala 版本为 2.12 的二进制分发包[^2]。 #### 2. 解压安装包 将下载好的 `.tgz` 文件解压至目标目录,通常建议放置于 `/opt/module` 路径下以便管理: ```bash tar zxvf /tempupload/flink-1.17.1-bin-scala_2.12.tgz -C /opt/module/ mv flink-1.17.1 flink ``` 上述指令会把解压后的文件夹重命名为更简洁易记的名字 `flink`[^1]。 #### 3. 配置环境变量 为了让系统能够识别到新安装的服务组件,需编辑用户的 shell profile 文件(如 `.bashrc`, `.zshrc`),追加如下内容: ```bash export FLINK_HOME=/opt/module/flink export PATH=$FLINK_HOME/bin:$PATH ``` 随后刷新当前终端窗口以应用改动: ```bash source ~/.bashrc ``` 或者如果是 zsh 用户则替换为: ```bash source ~/.zshrc ``` #### 4. 启动 Standalone 模式 进入 `$FLINK_HOME/conf` 目录调整默认配置选项满足实际需求之后即可尝试启动集群服务。对于单机测试而言,默认参数基本适用无需额外定制化处理。 启动命令如下所示: ```bash start-cluster.sh ``` 此时应该可以在浏览器输入 http://localhost:8081 访问 Web UI 页面查看运行状态[^4]。 #### 5. JDBC Connectors 设置 (可选步骤) 当计划利用内置 SQL CLI 工具对接外部数据库资源时,除了基础框架外还需引入特定驱动支持。例如针对 MySQL 场景就需要准备两个 JAR 包分别负责协议适配以及具体实现逻辑交互部分的功能扩展。 - **MySQL Driver**: 博主提到其个人环境下已有预置版本号为 8.0.27 的 jar 文档可以直接沿用; - **Flink-JDBC Connector**: 参考 Maven Central Repository 获取最新兼容发行版资料地址 [https://mvnrepository.com/artifact/org.apache.flink/flink-connector-jdbc](https://mvnrepository.com/artifact/org.apache.flink/flink-connector-jdbc),选取匹配当前核心引擎次序编号组合而成的目标产物——即此处选用的是 `flink-connector-jdbc-3.1.1-1.17.jar`[^3]。 最后记得把这些素材拷贝至 lib 子目录当中去激活关联特性模块加载机制。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值