Spark2.X-自定义累加器AccumulatorV2

本文介绍Spark中的累加器概念,展示如何自定义累加器并应用于字符串计数任务,通过减少网络消耗提高计算效率。
  • 累加器作为spark的一个共享变量的实现,在用于累加计数计算计算指标的时候可以有效的减少网络的消耗
  1. spark中有一个节点的角色是Master,根据配置文件进行分配,Master节点的职责主要是参与worker节点之间的资源调度。

  2. 参与spark作业计算的是worker节点上的excutor,在最开始会将原始RDD复制到excutor的各个task进程上以供计算。这时候如果task过多,或者原始RDD过大,则会耗费更多的时间在资源复制上。


    累加器可以实现将资源文件复制到每个excutor上,供excutor中的task进程计算使用,减少网络的占用

现在要实现一个累加的效果是,比如有很多个字符串,比如:

ONE:1    TWO:2    THREE:3    ONE:9

想要计算出ONE,TWO,THREE的count和,那么现在可以先自定义一个Accumulator2

import org.apache.spark.util.AccumulatorV2;

import java.util.HashMap;
import java.util.Map;
import java.util.Objects;

public class UserDefinedAccumulator extends AccumulatorV2<String, String> {
	private String one = "ONE";
	private String two = "TWO";
	private String three = "THREE";
	//将想要计算的字符串拼接起来,并赋初始值,后续针对data进行累加,并返回
	private String data = one + ":0;" + two + ":0;" + three + ":0;";
	//原始状态
	private String zero = data;

	//判断是否是初始状态,直接与原始状态的字符串进行对比
	@Override
	public boolean isZero() {
		return data.equals(zero);
	}

	//复制一个新的累加器
	@Override
	public AccumulatorV2<String, String> copy() {
		return new UserDefinedAccumulator();
	}

	//重置,恢复原始状态
	@Override
	public void reset() {
		data = zero;
	}

	//针对传入的字符串,与当前累加器现有的值进行累加
	@Override
	public void add(String v) {
		data = mergeData(v, data, ";");
	}
	
	//将两个累加器的计算结果进行合并
	@Override
	public void merge(AccumulatorV2<String, String> other) {
		data = mergeData(other.value(), data, ";");
	}

	//将此累加器的计算值返回
	@Override
	public String value() {
		return data;
	}

	/**
	 * 合并两个字符串
	 * @param data_1 字符串1
	 * @param data_2 字符串2
	 * @param delimit 分隔符
	 * @return 结果
	 */
	private String mergeData(String data_1, String data_2, String delimit) {
		StringBuffer res = new StringBuffer();
		String[] infos_1 = data_1.split(delimit);
		String[] infos_2 = data_2.split(delimit);
		Map<String, Integer> map_1 = new HashMap<>();
		Map<String, Integer> map_2 = new HashMap<>();
		for (String info : infos_1) {
			String[] kv = info.split(":");
			if (kv.length == 2) {
				String k = kv[0].toUpperCase();
				Integer v = Integer.valueOf(kv[1]);
				map_1.put(k, v);
				continue;
			}
		}
		for (String info : infos_2) {
			String[] kv = info.split(":");
			if (kv.length == 2) {
				String k = kv[0].toUpperCase();
				Integer v = Integer.valueOf(kv[1]);
				map_2.put(k, v);
				continue;
			}
		}
		for (Map.Entry<String, Integer> entry : map_1.entrySet()) {
			String key = entry.getKey();
			Integer value = entry.getValue();
			if (map_2.containsKey(key)) {
				value = value + map_2.get(key);
				map_2.remove(key);
			}
			res.append(key + ":" + value + delimit);
		}
		for (Map.Entry<String, Integer> entry : map_1.entrySet()) {
			String key = entry.getKey();
			Integer value = entry.getValue();
			if (res.toString().contains(key)) {
				continue;
			}
			res.append(key + ":" + value + delimit);
		}
		if (!map_2.isEmpty()) {
			for (Map.Entry<String, Integer> entry : map_2.entrySet()) {
				String key = entry.getKey();
				Integer value = entry.getValue();
				res.append(key + ":" + value + delimit);
			}
		}
		return res.toString().substring(0, res.toString().length() - 1);
	}
}

新建一个测试类:

import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.PairFunction;
import org.apache.spark.api.java.function.VoidFunction;
import org.apache.spark.sql.SparkSession;
import scala.Tuple2;

import java.util.Arrays;
import java.util.Random;

public class CustomerAccumulator {
	public static void main(String[] args) {
		SparkSession sparkSession = SparkSession.builder()
				.master("local[4]")
				.appName("CustomerBroadcast")
				.getOrCreate();
		JavaSparkContext sc = JavaSparkContext.fromSparkContext(sparkSession.sparkContext());
		sc.setLogLevel("ERROR");
		JavaRDD<String> rdd = sc.parallelize(Arrays.asList("ONE", "TWO", "THREE","ONE"));
		UserDefinedAccumulator count = new UserDefinedAccumulator();
		//将累加器进行注册
		sc.sc().register(count, "user_count");
		//随机设置值
		JavaPairRDD<String, String> pairRDD = rdd.mapToPair((PairFunction<String, String, String>) s -> {
			int num = new Random().nextInt(10);
			return new Tuple2<>(s, s + ":" + num);
		});
		//foreach中进行累加
		pairRDD.foreach((VoidFunction<Tuple2<String, String>>) tuple2 -> {
			System.out.println(tuple2._2);
			count.add(tuple2._2);
		});
		System.out.println("the value of accumulator is:"+count.value());
	}
}

查看运行结果:

[root@master ~]# /usr/local/spark/sbin/start-all.sh starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.out slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.out slave1: failed to launch: nice -n 0 /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave2: failed to launch: nice -n 0 /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave1: Spark Command: /usr/local/jdk/bin/java -cp /usr/local/spark/conf/:/usr/local/spark/jars/*:/usr/local/hadoop/etc/hadoop/:/usr/local/hive/lib/ -Xmx1g org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave1: ======================================== slave1: full log in /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.out slave2: Spark Command: /usr/local/jdk/bin/java -cp /usr/local/spark/conf/:/usr/local/spark/jars/*:/usr/local/hadoop/etc/hadoop/:/usr/local/hive/lib/ -Xmx1g org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077 slave2: ======================================== slave2: full log in /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.out 我哪里有spark-class
最新发布
07-29
<think>我们正在解决Spark集群启动时Worker节点启动失败的问题,错误信息中提到了`spark-class`命令。用户询问"我哪里有spark-class",说明用户可能想确认这个关键脚本的位置,或者在使用时找不到它。根据引用[4]和引用[5],我们可以推断问题可能与环境变量配置有关,特别是`JAVA_HOME`和`SPARK_HOME`的设置。 ### 问题分析 1. **错误信息**:从日志中看到,Worker启动失败时尝试执行的命令是: ``` nice -n 0 /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker ... ``` 这表明系统试图在`/usr/local/spark/bin/`目录下找到`spark-class`脚本。 2. **可能原因**: - `spark-class`脚本不存在于该路径(可能是Spark安装位置不同) - 环境变量`SPARK_HOME`未正确设置,导致启动脚本使用了错误的路径 - 执行权限问题(`spark-class`脚本没有可执行权限) ### 解决方案 #### 步骤1:确认`spark-class`文件位置 在Spark的安装目录中,`spark-class`文件通常位于`bin`目录下。默认安装路径可能是: - `/usr/local/spark/`(如错误日志所示) - `/opt/spark/`(如引用[2]所示) **检查方法**: ```bash # 在Worker节点上执行 ls -l /usr/local/spark/bin/spark-class # 或 ls -l /opt/spark/bin/spark-class ``` 如果文件不存在,请确认Spark是否已正确安装在所有节点(包括Worker节点)的相同路径下。 #### 步骤2:检查环境变量配置 引用[4]提到,需要在`spark-config.sh`中设置`JAVA_HOME`。同样,`SPARK_HOME`也必须正确设置。 1. **检查`SPARK_HOME`**: 在Worker节点上运行: ```bash echo $SPARK_HOME ``` 如果未设置,需要修改Spark配置文件2. **配置环境变量**: - 方法一:在`$SPARK_HOME/sbin/spark-config.sh`中添加(如引用[4]): ```bash export JAVA_HOME=/usr/local/jdk # 替换为实际JDK路径 export SPARK_HOME=/usr/local/spark # 替换为实际Spark路径 ``` - 方法二:在`/etc/profile`或用户`~/.bashrc`中设置(如引用[5]),并确保所有节点同步: ```bash export SPARK_HOME=/usr/local/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin export JAVA_HOME=/usr/local/jdk export PATH=$PATH:$JAVA_HOME/bin ``` **注意**:修改后执行`source /etc/profile`或`source ~/.bashrc`使配置生效。 #### 步骤3:验证脚本权限 确保`spark-class`有可执行权限: ```bash chmod +x $SPARK_HOME/bin/spark-class ``` #### 步骤4:检查Worker日志 根据错误提示,查看完整的Worker日志: ```bash cat /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.out ``` 日志中通常会包含更具体的错误原因(如类找不到、内存不足、连接主节点失败等)。 ### 常见问题总结 | 问题类型 | 表现 | 解决方案 | |---------|------|---------| | **环境变量缺失** | `JAVA_HOME`未设置导致无法启动JVM | 在`spark-config.sh`或系统配置文件中设置`JAVA_HOME`[^4] | | **路径错误** | `spark-class`找不到 | 确认`SPARK_HOME`指向正确路径,并检查文件是否存在 | | **权限问题** | `Permission denied` | 用`chmod +x`添加可执行权限 | | **资源不足** | `OutOfMemoryError` | 增加`SPARK_WORKER_MEMORY`(在`spark-env.sh`中) | ### 预防措施 - **集群环境一致性**:确保所有节点(Master和Worker)具有相同的安装路径和环境变量配置。 - **使用配置管理工具**:如Ansible,批量同步配置和文件。 ### 手动测试Worker启动 在Worker节点手动执行以下命令测试: ```bash $SPARK_HOME/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077 ``` 观察控制台输出,可快速定位问题。 --- 通过以上步骤,应能解决`spark-class`定位及Worker启动失败的问题。若问题依旧,请根据具体日志错误进一步排查[^1][^2]。 §§相关问题§§ 1. Spark集群部署需要满足哪些前置条件? 2. 如何配置Spark集群的日志级别以获取更详细错误信息? 3. Spark Worker无法连接Master的常见原因有哪些?</think>### Spark Worker启动失败排查指南 `spark-class`文件Spark的核心启动脚本,通常位于Spark安装目录的`bin`子目录中。根据您的错误日志,系统尝试在以下路径执行该脚本: ``` /usr/local/spark/bin/spark-class ``` #### 一、定位spark-class文件 1. **默认安装位置**: - 标准路径:`/usr/local/spark/bin/spark-class` -自定义安装:`$SPARK_HOME/bin/spark-class` 2. **验证文件存在**: ```bash # 在slave1和slave2节点上执行 ls -l /usr/local/spark/bin/spark-class ``` - 预期输出:`-rwxr-xr-x`(需有可执行权限) - 若不存在:重新安装Spark或修复安装路径 #### 二、关键排查步骤 1. **检查环境变量配置**(引用[4][5]): ```bash # 在所有节点执行 echo $JAVA_HOME # 应显示JDK路径如/usr/local/jdk echo $SPARK_HOME # 应显示/usr/local/spark echo $PATH # 应包含$SPARK_HOME/bin ``` 2. **修复环境变量**: - 编辑Spark配置脚本: ```bash vim /usr/local/spark/sbin/spark-config.sh ``` - 添加以下内容(引用[4]): ```bash export JAVA_HOME=/usr/local/jdk export SPARK_HOME=/usr/local/spark export PATH=$PATH:$JAVA_HOME/bin:$SPARK_HOME/bin ``` 3. **验证脚本权限**: ```bash chmod +x /usr/local/spark/bin/spark-class ``` #### 三、日志分析(引用[1][2]) 查看具体错误日志: ```bash # 在slave1节点 cat /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.out # 在slave2节点 cat /usr/local/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.out ``` 常见错误及解决方案: | **错误类型** | **解决方案** | |--------------|--------------| | `ClassNotFoundException` | 检查`SPARK_CLASSPATH`是否包含Hadoop/Hive库路径 | | `Connection refused` | 开放防火墙7077/8081端口,检查主机名解析 | | `Permission denied` | 用`chown -R spark:spark /usr/local/spark`修复属主 | #### 四、手动启动测试(引用[2]) 在Worker节点执行: ```bash /usr/local/spark/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077 ``` 观察实时错误输出,可快速定位问题根源。 > **重要提示**:确保所有节点Spark版本一致,且`conf/slaves`文件包含正确主机名[^1][^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值