spark-shell运行参数--master

博客主要介绍了spark-shell命令的使用。直接运行该命令采用默认配置,添加参数的命令中,–master配置的是spark默认资源管理和调度框架,端口号指定资源存储位置。还提到若文件不在指定端口根目录会报错,使用本地资源修改命令即可。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spark-shell

spark-shell

  如果直接使用spark-shell命令直接运行,那么它的一切参数都使用的是默认配置,例如:

#资源存储的位置,默认为本地,以及使用什么调度框架 ,默认使用的是spark内置的资源管理和调度框架Standalone 
#local单机版,只占用一个线程,local[*]占用当前所有线程
--master 默认为 local[*] 
#默认使用集群最大的内存大小
--executor-memorty
#默认使用最大核数
--total-executor-cores 

spark-shell [options]

spark-shell --master spark://端口号:7077 --executor-memory 1g --total-executor-cores 1

  上面命令是加了部分spark-shell运行参数的,主要是–master配置的是spark默认的资源管理和调度框架,而端口号:7070则是在命令里面使用的资源存储位置,类似于hdfs。
例如:

sc.textFile("wc.txt").map(_.split(",")).collect

wc.txt文件必须在端口号:7077的根目录下存在,如果不存在,会报如下错误:

Caused by: java.io.FileNotFoundException: File file:/root/wc.txt does not exist
  at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:611)
  at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:824)
  at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:601)
  at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:421)
  at org.apache.hadoop.fs.ChecksumFileSystem$ChecksumFSInputChecker.<init>(ChecksumFileSystem.java:142)
  at org.apache.hadoop.fs.ChecksumFileSystem.open(ChecksumFileSystem.java:346)
  at org.apache.hadoop.fs.FileSystem.open(FileSystem.java:769)
  at org.apache.hadoop.mapred.LineRecordReader.<init>(LineRecordReader.java:109)
  at org.apache.hadoop.mapred.TextInputFormat.getRecordReader(TextInputFormat.java:67)
  at org.apache.spark.rdd.HadoopRDD$$anon$1.liftedTree1$1(HadoopRDD.scala:251)
  at org.apache.spark.rdd.HadoopRDD$$anon$1.<init>(HadoopRDD.scala:250)
  at org.apache.spark.rdd.HadoopRDD.compute(HadoopRDD.scala:208)
  at org.apache.spark.rdd.HadoopRDD.compute(HadoopRDD.scala:94)
  at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:323)
  at org.apache.spark.rdd.RDD.iterator(RDD.scala:287)
  at org.apache.spark.rdd.MapPartitionsRDD.compute(MapPartitionsRDD.scala:38)
  at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:323)
  at org.apache.spark.rdd.RDD.iterator(RDD.scala:287)
  at org.apache.spark.rdd.MapPartitionsRDD.compute(MapPartitionsRDD.scala:38)
  at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:323)
  at org.apache.spark.rdd.RDD.iterator(RDD.scala:287)
  at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:87)
  at org.apache.spark.scheduler.Task.run(Task.scala:109)
  at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:338)
  at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
  at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
  at java.lang.Thread.run(Thread.java:748)

如果要使用本地的资源,改下命令就OK。

spark-shell --master local[*] --executor-memory 1g --total-executor-cores 1
### Spark-Shell 连接 Spark 集群的方法及原理 #### 方法概述 `spark-shell` 是一种交互式的 Scala 或 Python 环境,用于快速测试和运行 Spark 应用程序。它可以通过指定参数连接到不同的集群管理器(如 YARN、Mesos 或 Standalone)。以下是通过 `spark-shell` 连接到 Spark 集群的具体方法及其含义。 #### 参数配置 要使 `spark-shell` 连接到 Spark 集群,通常需要设置以下关键参数: 1. **--master**: 指定集群管理器的 URL。例如,对于 YARN 集群模式,可以使用 `yarn`;对于独立模式,则可使用 `spark://<master-host>:<port>`。 示例命令如下: ```bash ./bin/spark-shell --master yarn --deploy-mode client ``` 2. **--deploy-mode**: 定义驱动程序的位置。可以选择两种模式: - `client`: 驱动程序在提交作业的工作站上运行- `cluster`: 驱动程序在工作节点之一上运行。 3. **其他常见参数**: - `--num-executors`: 设置执行器的数量。 - `--executor-memory`: 设置每个执行器的内存大小。 - `--driver-memory`: 设置驱动程序的内存大小。 - `--conf`: 添加自定义配置项。 这些参数允许用户灵活调整资源分配并优化性能[^1]。 #### 原理解析 当启动带有上述参数的 `spark-shell` 时,会发生以下几个主要过程: 1. **初始化上下文**: 创建一个名为 `sc` 的全局变量,表示 SparkContext 实例。这是与 Spark 集群通信的核心对象。 2. **连接至 Master 节点**: 根据 `--master` 参数中的地址,尝试建立与集群管理器的联系。 3. **部署模式选择**: - 如果采用客户端模式 (`client`),则本地机器上的 JVM 将作为驱动程序运行环境,并向远程 Worker 发送任务请求。 - 若为集群模式 (`cluster`),驱动程序会被调度到某个 Work 节点上运行,而 CLI 工具仅负责监控日志输出。 4. **资源配置传递**: 所有额外设定好的选项都会被发送给 ResourceManager 来安排实际计算所需的硬件规格[^3]。 因此,在日常开发调试阶段推荐使用 Client Mode 方便查看即时反馈;而在生产环境中更倾向于 Cluster Mode 提升稳定性与隔离度[^2]。 ```scala // 在 spark-shell 中访问 sc 对象来验证是否成功连入集群 println(sc.master) // 输出当前使用的 master 地址 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值