查看spark官方档,发现map, reduce的方法都指定只能代如固定一个参数(map)或者两个参数(reduce)
现在工作发现,想要多把代入参数到map,和reduce的方法里面.
查了下,发现以下方法。
先定义一个函数:
def func(a, extra_para):
k = a + extra_para
return k然后map 的时候:
rdd = rd.map(lambda row:func(1,2))这样就能代入另外的参数到map, reduce中
参考url:
http://stackoverflow.com/questions/34087578/how-to-pass-additional-parameters-to-user-defined-methods-in-pyspark-for-filter

本文介绍如何在Apache Spark中为map和reduce操作传递多个参数。通过定义一个包含额外参数的函数,并利用lambda表达式调用该函数,实现向map操作传递多个参数的功能。
1094

被折叠的 条评论
为什么被折叠?



