spark 启动




总用量 0

[wangshumin@CentOSNode1 logs]$ kill -9 32377
[wangshumin@CentOSNode1 logs]$ jps
29777 DFSZKFailoverController
29362 NameNode
29075 JournalNode
32547 Jps
31837 ResourceManager
[wangshumin@CentOSNode1 logs]$ start-master.sh

starting org.apache.spark.deploy.master.Master, logging to /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/logs/spark-wangshumin-org.apache.spark.deploy.master.Master-1-CentOSNode1.out
[wangshumin@CentOSNode1 logs]$ ll
总用量 4
-rw-rw-r--. 1 wangshumin wangshumin 1534 3月  11 17:56 spark-wangshumin-org.apache.spark.deploy.master.Master-1-CentOSNode1.out
[wangshumin@CentOSNode1 logs]$ cat spark-wangshumin-org.apache.spark.deploy.master.Master-1-CentOSNode1.out 
Spark Command: /home/wangshumin/ekl/jdk1.8.0_162/bin/java -cp /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/conf/:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/spark-assembly-1.6.2-hadoop2.6.0.jar:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/datanucleus-core-3.2.10.jar:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/datanucleus-api-jdo-3.2.6.jar:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/datanucleus-rdbms-3.2.9.jar:/home/wangshumin/hadoop-2.6.5/etc/hadoop/ -Xms1g -Xmx1g org.apache.spark.deploy.master.Master --ip CentOSNode1 --port 7077 --webui-port 8080
========================================
18/03/11 17:56:08 INFO master.Master: Registered signal handlers for [TERM, HUP, INT]
18/03/11 17:56:10 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
18/03/11 17:56:10 INFO spark.SecurityManager: Changing view acls to: wangshumin
18/03/11 17:56:10 INFO spark.SecurityManager: Changing modify acls to: wangshumin
18/03/11 17:56:10 INFO spark.SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(wangshumin); users with modify permissions: Set(wangshumin)
18/03/11 17:56:12 INFO util.Utils: Successfully started service 'sparkMaster' on port 7077.
18/03/11 17:56:12 INFO master.Master: Starting Spark master at spark://CentOSNode1:7077
18/03/11 17:56:12 INFO master.Master: Running Spark version 1.6.2
18/03/11 17:56:12 INFO server.Server: jetty-8.y.z-SNAPSHOT
18/03/11 17:56:12 INFO server.AbstractConnector: Started SelectChannelConnector@0.0.0.0:8080
18/03/11 17:56:12 INFO util.Utils: Successfully started service 'MasterUI' on port 8080.
18/03/11 17:56:12 INFO ui.MasterWebUI: Started MasterWebUI at http://192.168.72.141:8080
18/03/11 17:56:12 INFO server.Server: jetty-8.y.z-SNAPSHOT
18/03/11 17:56:12 INFO server.AbstractConnector: Started SelectChannelConnector@CentOSNode1:6066
18/03/11 17:56:12 INFO util.Utils: Successfully started service on port 6066.
18/03/11 17:56:12 INFO rest.StandaloneRestServer: Started REST server for submitting applications on port 6066
18/03/11 17:56:13 INFO master.Master: I have been elected leader! New state: ALIVE
[wangshumin@CentOSNode1 logs]$ 



drwxr-xr-x. 13 wangshumin wangshumin 222 3月  11 09:36 spark-1.6.2-bin-hadoop2.6

[wangshumin@CentOSNode3 spark]$ cd spark-1.6.2-bin-hadoop2.6/
[wangshumin@CentOSNode3 spark-1.6.2-bin-hadoop2.6]$ ll
总用量 1384
drwxr-xr-x. 2 wangshumin wangshumin    4096 3月  11 09:12 bin
-rw-r--r--. 1 wangshumin wangshumin 1343562 3月  11 09:12 CHANGES.txt
drwxr-xr-x. 2 wangshumin wangshumin     264 3月  11 13:15 conf
drwxr-xr-x. 3 wangshumin wangshumin      19 3月  11 09:12 data
drwxr-xr-x. 3 wangshumin wangshumin      79 3月  11 09:12 ec2
drwxr-xr-x. 3 wangshumin wangshumin      17 3月  11 09:12 examples
drwxr-xr-x. 2 wangshumin wangshumin     237 3月  11 09:16 lib
-rw-r--r--. 1 wangshumin wangshumin   17352 3月  11 09:12 LICENSE
drwxr-xr-x. 2 wangshumin wangshumin    4096 3月  11 09:12 licenses
drwxrwxr-x. 2 wangshumin wangshumin    4096 3月  11 12:11 logs
-rw-r--r--. 1 wangshumin wangshumin   23529 3月  11 09:12 NOTICE
drwxr-xr-x. 6 wangshumin wangshumin     119 3月  11 09:12 python
drwxr-xr-x. 3 wangshumin wangshumin      17 3月  11 09:12 R
-rw-r--r--. 1 wangshumin wangshumin    3359 3月  11 09:16 README.md
-rw-r--r--. 1 wangshumin wangshumin     120 3月  11 09:12 RELEASE
drwxr-xr-x. 2 wangshumin wangshumin    4096 3月  11 09:12 sbin
[wangshumin@CentOSNode3 spark-1.6.2-bin-hadoop2.6]$ ./sbin/start-slave.sh   spark://CentOSNode1:7077
starting org.apache.spark.deploy.worker.Worker, logging to /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/logs/spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out
failed to launch org.apache.spark.deploy.worker.Worker:
full log in /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/logs/spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out
[wangshumin@CentOSNode3 spark-1.6.2-bin-hadoop2.6]$ cat  /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/logs/spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out
Spark Command: /home/wangshumin/ekl/jdk1.8.0_162/bin/java -cp /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/conf/:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/spark-assembly-1.6.2-hadoop2.6.0.jar:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/datanucleus-core-3.2.10.jar:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/datanucleus-api-jdo-3.2.6.jar:/home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/lib/datanucleus-rdbms-3.2.9.jar:/home/wangshumin/hadoop-2.6.5/etc/hadoop/ -Xms1g -Xmx1g org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://CentOSNode1:7077
========================================
[wangshumin@CentOSNode3 spark-1.6.2-bin-hadoop2.6]$ cd   /home/wangshumin/spark/spark-1.6.2-bin-hadoop2.6/logs
[wangshumin@CentOSNode3 logs]$ ll
总用量 24
-rw-rw-r--. 1 wangshumin wangshumin 1225 3月  11 17:58 spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out
-rw-rw-r--. 1 wangshumin wangshumin 2435 3月  11 12:11 spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out.1
-rw-rw-r--. 1 wangshumin wangshumin 2439 3月  11 11:44 spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out.2
-rw-rw-r--. 1 wangshumin wangshumin 2439 3月  11 10:26 spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out.3
-rw-rw-r--. 1 wangshumin wangshumin 2439 3月  11 10:19 spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out.4
-rw-rw-r--. 1 wangshumin wangshumin 2439 3月  11 09:55 spark-wangshumin-org.apache.spark.deploy.worker.Worker-1-CentOSNode3.out.5
[wangshumin@CentOSNode3 logs]$ 
### 如何启动 Spark 或解决 Spark 启动失败的问题 #### 1. 正常启动 Worker 节点的方法 当一个 Worker 节点启动失败时,可以通过对比正常运行的节点来排查问题。具体操作是在正常的 Worker 节点上查看日志文件,分析其启动命令以及参数设置是否正确。例如,在正常工作的节点上可以找到以下启动命令的日志记录: ```bash Spark Command: /opt/java8/bin/java ... ``` 这表明 Java 环境路径可能是一个重要的因素[^1]。 #### 2. 版本兼容性问题 如果在执行 `spark-shell` 或者提交作业时遇到失败,可能是由于版本不匹配引起的。对于某些环境中,默认安装的是 Spark 的旧版或者未指定特定版本的情况下,可能会导致指令无法识别。因此建议确认当前使用的 Spark 是哪个版本并调整相应的命令前缀。比如如果是 Spark2,则应使用如下形式调用工具: ```bash [root@cdh0 ~]# spark2-shell [root@cdh0 wordcount]# spark2-submit --class "SimpleApp" /home/spark/mycode/wordcount/target/scala-2.11/simple-project_2.11-1.0.jar ``` 这样能够有效避免因默认加载错误版本而引发的一系列异常情况[^2]。 #### 3. IP 地址变更后的重新配置 当虚拟机迁移或网络发生变化致使IP地址被修改之后,原有的 Spark 配置将不再适用,从而影响到整个集群的服务状态。此时需要进入 `/conf` 文件夹下编辑对应的环境变量定义脚本(通常命名为 `spark-env.sh`),确保其中涉及主机名的部分与实际相符。另外还需注意检查是否有其他地方硬编码了老的 IP 数据[^3]。 #### 4. 日志目录权限不足或其他基础设施层面障碍 有时即使完成了以上步骤仍然会遭遇诸如找不到目标文件之类的报错消息,像下面这样的例子就反映了这一点: ```plaintext mv: cannot move '/path/to/logfile' to '/another/path': No such file or directory. ``` 这类现象往往源于两方面原因:一是日志存储位置本身存在问题;二是负责处理这些资源的应用程序未能成功初始化。针对前者可通过手动创建缺失的目标文件夹结构加以修复;至于后者则需仔细核查 Slave 列表(`slaves`)里所列成员名称及其关联关系是否准确无误[^4]。 最后附带一段简单的 Python 测试代码用于验证基本功能连通状况: ```python from pyspark import SparkContext, SparkConf if __name__ == "__main__": conf = SparkConf().setAppName("TestConnection").setMaster("local[*]") sc = SparkContext(conf=conf) data = range(1, 6) rdd = sc.parallelize(data).map(lambda x:x*x) result = rdd.collect() print(result) sc.stop() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值