StreamPark安装部署与部署Flink程序

前言: 我自己在本地开发时,是可以运行的,但是我打完jar包就不能运行.因为我的程序依赖我用的是外部提供的,程序在运行时告诉我依赖冲突.解决这个问题搞了好久太麻烦了,于是我采用了StramPark工具,他不仅能自己构建项目,项目的依赖问题他也会自己解决,可以说只要你本地开发没问题,他就不会就问题.他还有程序警告的功能.

一、部署环境

       需要JAVA和Maven与Flink环境,不支持window系统

        StreamPark1.2.2之前(包含)的版本,只支持scala2.11的版本,使用Flink时要检查对应的scala版本1.2.3之后(包含)的版本, 支持scala2.11 和scala2.12两个版本 .

二、安装部署

        我们这里部署的是StreamPark_2.12-2.1.4版本,这里的Maven和Flink你们自己部署吧.上传解压的过程就不展示了.解压完成后进入StreamPark的conf目录下,修改配置文件.注意: 绿色代表需要配置的内容,且变量名称与值之间需要有空格

vim config.yaml

datasource:
  dialect: mysql  #h2, mysql, pgsql #配置元数据使用的数据库,这里使用MySql数据库
  # if datasource.dialect is mysql or pgsql, you need to configure the following connection information
  # mysql/postgresql connect user
  username: root #登入mysql的用户名
  # mysql/postgresql connect password
  password: 123456 #密码
  # mysql/postgresql connect jdbcURL
  # mysql example: datasource.url: jdbc:mysql://localhost:3306/streampark?useUnicode=true&characterEncoding=UTF-8&useJDBCCompliantTimezoneShift=true&useLegacyDatetimeCode=false&serverTimezone=GMT%2B8
  # postgresql example: jdbc:postgresql://localhost:5432/streampark?stringtype=unspecified
  url: jdbc:mysql://node101:3306/streampark?useSSL=false&useUnicode=true&characterEncoding=UTF-8&useJDBCCompliantTimezoneShift=true&useLegacyDatetimeCode=false&serverTimezone=GMT%2B8

streampark:
  workspace:
    # Local workspace, storage directory of clone projects and compiled projects,Do not set under $APP_HOME. Set it to a directory outside of $APP_HOME.
    local: /home/bduser/modules/streampark_workspace #本地工作区,克隆项目和编译项目的存储目录,不要在$APP_HOME下设置。将其设置为$APP_HOME之外的目录。

    # The root hdfs path of the jars, Same as yarn.provided.lib.dirs for flink on yarn-application and Same as --jars for spark on yarn
    remote: hdfs://node101:8020/streampark #jar的根hdfs路径
  proxy:
    # lark proxy address, default https://open.feishu.cn
    lark-url:
    # hadoop yarn proxy path, e.g: knox process address https://streampark.com:8443/proxy/yarn 
    yarn-url:
  yarn:
    # flink on yarn or spark on yarn, monitoring job status from yarn, it is necessary to set hadoop.http.authentication.type
    http-auth: 'simple'  # default simple, or kerberos
  # flink on yarn or spark on yarn, HADOOP_USER_NAME
  hadoop-user-name: bduser #登入hadoop的用户名

 配置完成后保存退出.到StreamPark的根目录下执行,再执行这个命令之前,需要先创建local:指定的目录

bin/startup.sh

运行StreamPark服务,去游览器访问: 节点ip:10000 . 默认用户名: admin 密码:streampark

三、修改配置

登录进去以后需要指定maven配置文件的地址

 这里可以设置警告邮箱,可选择

 

这里的邮箱密码是,邮箱里面的第三方授权密码,网易邮箱里面可以申请.且同时需要开启下面图片中的服务

  

 这里需要设置警告设置,点击添加

添加完成后,点击下面的闪电符号,测试.出现右边的提示,表示测试成功

 

这里开始是本文的重点.将你的项目添加到StreamPark,点击项目管理->点击添加

里面都是中文,一看就懂,第一次可以不用设置POM依赖,构建项目参数根据自己项目设置,没有不用管

添加完成以后,构建项目.再构建项目之前需要将自己Flink目录下的plugins文件上传到HDFS上的/streampark目录下,命令文件.执行完该命令,点击构建项目

hadoop fs -put /home/bduser/modules/flink-1.18.1/plugins/ /streampark

构建完成后,添加作业 

 

 这里有一个作业依赖可以不用管,他会自己解决.添加完成后.点击发布->点击启动

启动成功后,就完成了,后面的就自己探索吧 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值