Spark搭建历程-《sparkStreaming》1

本文详细介绍了在虚拟机上运行Spark程序时遇到的环境配置问题及解决方案,特别是当使用YARN作为集群资源管理器时,如何正确设置HADOOP_CONF_DIR或YARN_CONF_DIR环境变量,确保Spark能够正确读取Hadoop配置。文章还提供了测试Spark安装是否成功的具体步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在虚拟机上搭运行spark程序的时候:

 spark-submit  --queue media --class test.SparkStreamingDemo  --master yarn-cluster --executor-memory 2g  --executor-cores 2 --conf spark.yarn.submit.waitAppCompletion=false  ~/shengjunyang/etl-anal-1.0-SNAPSHOT-jar-with-dependencies.jar  localhost 9999

报错:

Exception in thread "main" java.lang.Exception: When running with master 'yarn-cluster' either HADOOP_CONF_DIR or YARN_CONF_DIR must be set in the environment.
解决方法: hadoop,spark默认安装在usr/local目录下。搭建的教程可以参照厦门大学数据库实验室

通过下面命令可以测试spark是否安装成功:

环境变量配置

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
PATH=$PATH:$HIVE_HOME/bin:$HADOOP_HOME/bin

小技巧:

spark-submit 测试安装是否成功
 

cd /usr/local/spark
./bin/run-example SparkPi 2>&1 | grep "Pi is"

Shell中管道命令操作符为”|”,仅能处理前面的一个指令传出的正确输出信息,也就是标准输出的信息(没法处理错误信息)。然后传递给下一个命令,作为标准的输入。grep是过滤选出Pi is 的打印语句

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值