记录:主要是有些pyspark任务跑六七个小时,日志消失,所以用sh跑
#!/bin/bash
echo "Current working directory: $(pwd)"
# 设置日志文件名
LOG_FILE="/data/ruyi/resources/ark/chenkf/generate_appvec.log"
path_python="/data/ruyi/resources/ark/chenkf/generate_appvec.py"
PYTHON_PATH="/data/ruyi/env/python/default"
# 运行Python脚本并将输出重定向到日志文件
$PYTHON_PATH $path_python >> $LOG_FILE 2>&1
# 上面的命令解释:
# 1. python my_script.py 是运行Python脚本的命令。
# 2. >> "$LOG_FILE" 是将标准输出重定向到日志文件。
# 3. 2>&1 是将标准错误(stderr)重定向到标准输出(stdout),这样它们都被写入日志文件。
# 检查Python脚本执行后的返回值
if [ $? -ne 0 ]; then
echo "Error: Python script execution failed."
exit 1
fi
echo "Python script execution completed successfully."
exit 0
4538

被折叠的 条评论
为什么被折叠?



