pyspark map,reduce接收参数

本文介绍如何在Apache Spark中为map和reduce操作传递多个参数。通过定义一个包含额外参数的函数,并利用lambda表达式调用该函数,实现向map操作传递多个参数的功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

查看spark官方档,发现map, reduce的方法都指定只能代如固定一个参数(map)或者两个参数(reduce)

现在工作发现,想要多把代入参数到map,和reduce的方法里面.

查了下,发现以下方法。


先定义一个函数:

def func(a, extra_para):
    k =  a + extra_para
    return k

然后map 的时候:

rdd = rd.map(lambda row:func(1,2))

这样就能代入另外的参数到map, reduce中



参考url:

http://stackoverflow.com/questions/34087578/how-to-pass-additional-parameters-to-user-defined-methods-in-pyspark-for-filter

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值