flink.sh脚本
脚本主要功能
这个脚本的主要功能是启动Flink的客户端。它根据脚本所在的路径和符号链接的路径获取正确的bin路径,并设置相应的环境变量和配置,然后通过调用org.apache.flink.client.cli.CliFrontend
类来执行相应的操作。
脚本加上中文注释
target="$0"
# 对于直接进行了符号链接的情况,通过迭代解析符号链接的正确路径。
# 注意:如果要符合POSIX标准,我们不能在这里使用readlink工具。
iteration=0
while [ -L "$target" ]; do
if [ "$iteration" -gt 100 ]; then
echo "Cannot resolve path: You have a cyclic symlink in $target."
break
fi
ls=`ls -ld -- "$target"`
target=`expr "$ls" : '.* -> \(.*\)$'`
iteration=$((iteration + 1))
done
# 将相对路径转换为绝对路径
bin=`dirname "$target"`
# 获取flink配置
. "$bin"/config.sh
if [ "$FLINK_IDENT_STRING" = "" ]; then
FLINK_IDENT_STRING="$USER"
fi
CC_CLASSPATH=`constructFlinkClassPath`
log=$FLINK_LOG_DIR/flink-$FLINK_IDENT_STRING-client-$HOSTNAME.log
log_setting=(-Dlog.file="$log" -Dlog4j.configuration=file:"$FLINK_CONF_DIR"/log4j-cli.properties -Dlog4j.configurationFile=file:"$FLINK_CONF_DIR"/log4j-cli.properties -Dlogback.configurationFile=file:"$FLINK_CONF_DIR"/logback.xml)
# 添加客户端特定的JVM选项
FLINK_ENV_JAVA_OPTS="${FLINK_ENV_JAVA_OPTS} ${FLINK_ENV_JAVA_OPTS_CLI}"
# 添加HADOOP_CLASSPATH以允许使用Hadoop文件系统
exec "${JAVA_RUN}" $JVM_ARGS $FLINK_ENV_JAVA_OPTS "${log_setting[@]}" -classpath "`manglePathList "$CC_CLASSPATH:$INTERNAL_HADOOP_CLASSPATHS"`" org.apache.flink.client.cli.CliFrontend "$@"
该脚本多种用法及其代码示例
该脚本主要用于启动Flink的客户端。它可以通过命令行参数来执行不同的操作。以下是一些使用示例:
- 启动Flink客户端:
./flink.sh
- 指定日志级别并执行作业:
./flink.sh run -d -m yarn-cluster -yjm 1024 -ytm 2048 -yn 4 -ys 2 -p 10 -ys -c com.example.MyJob myjob.jar
- 取消作业:
./flink.sh cancel <jobID>
- 列出所有正在运行的作业:
./flink.sh list