- 博客(4)
- 收藏
- 关注
原创 在spark on yarn运行任务java.io.IOException: Cannot run program
每台服务器都需要安装好anaconda环境并且创建好conda环境,将python路径添加进bashrc中。
2025-02-11 00:39:11
120
原创 Spark on Yarn模式运行pysaprk显示python3 no such file
低级错误 在bashrc下添加python环境变量后没有source ~./bashrc。
2025-02-10 23:38:07
71
原创 启动spark standalone 模式出现python找不到
需要先切换到安装anaconda的用户(root)打开自定义带有python版本的环境(conda activate pyspark(环境名称)),然后切换回普通用户(hadoop用户)使用spark bin目录下的./pyspark --master spark://node1:7077命令启动saprk。
2025-01-10 20:30:39
94
原创 yum install -y ntp报错
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo来获取最新的yum支持文件。
2025-01-09 20:32:32
320
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人