[学习笔记,欢迎指正]
1、我启动了hadoop,这么小的程序不需要启动。
使用单机local模式提交任务
local模式也就是本地模式,也就是在本地机器上单机执行程序。使用这个模式的话,并不需要启动Hadoop集群,也不需要启动Spark集群,只要有一台机器上安装了JDK、Scala、Spark即可运行。
cmd命令:
cd D:\hadoop-2.8.3\sbin
d:
start-all.cmd
能够看到四个窗口都跑起来了并且不报错。
采坑:
我的hadoop又重新配置了好久,参考攻略https://www.cnblogs.com/chevin/p/9090683.html
2、启动spark使用spark-submit命令:
cd d:\spark
spark-submit --class org.apache.spark.examples.SparkPi --master local examples/jars/spark-examples_2.11-2.4.3.jar
这是使用本地模式启动,

这篇博客介绍了如何在单机local模式下使用spark-submit命令运行Spark的样例程序SparkPi。首先,无需启动Hadoop集群,只需确保安装了JDK、Scala和Spark。然后,通过启动Hadoop的start-all.cmd命令,确保环境正常。接着,通过`spark-submit`命令,指定类、主节点为local及jar包路径,成功运行SparkPi并得出Pi的近似值3.14,验证了程序的正确性。
最低0.47元/天 解锁文章
2188

被折叠的 条评论
为什么被折叠?



