Spark基础学习:掌握RDD算子(2)

本文详细介绍了Spark的reduceByKey算子,用于对(key, value)形式的RDD进行按键归约,将相同key的value聚合。通过实例展示了在Spark Shell和IDEA中如何计算学生总分,涉及HDFS的读写操作,并处理权限问题。" 51281545,5613276,Unity制作VR视频播放器教程,"['Unity开发', '虚拟现实', 'VR应用', '3D开发', '游戏开发']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

(四)按键归约算子 - reduceByKey()
1、按键归约算子功能

  • reduceByKey()算子的作用对像是元素为(key,value)形式(Scala元组)的RDD,使用该算子可以将相同key的元素聚集到一起,最终把所有相同key的元素合并成一个元素。该元素的key不变,value可以聚合成一个列表或者进行求和等操作。最终返回的RDD的元素类型和原有类型保持一致。

2、按键归约算子案例
任务1、在Spark Shell里计算学生总分

  • 成绩表,包含四个字段(姓名、语文、数学、英语),只有三条记录
  • 创建成绩列表scores,基于成绩列表创建rdd1,对rdd1按键归约得到rdd2,然后查看rdd2内容

val scores = List(("张钦林", 78), ("张钦林", 90), ("张钦林", 76),
                  ("陈燕文", 95), ("陈燕文", 88), ("陈燕文", 98),
                  ("卢志刚", 78), ("卢志刚", 80), ("卢志刚", 60))
val rdd1 = sc.makeRDD(scores)
val rdd2 = rdd1.reduceByKey((x, y) => x + y)
rdd2.collect.foreach(println)

任务2、在IDEA里计算学生总分

  • 可能存在问题:在Windows下的IDEA中访问HDFS报错Could not locate executable null\bin\winutils.exe

  • 下载对应版本的winutils.exe,放在hadoop安装目录的bin子目录里

  • 配置hadoop环境变量

  •  

     

  • 创建Maven项目 - SparkRDDDemo

  •  

     

  • java目录改为scala

  • pom.xml文件里添加依赖和构建插件

  •  

    <?xml version="1.0" encoding="UTF-8"?>
    <project xmlns="http://maven.apache.org/POM/4.0.0"
             xmlns:xsi=
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值