from pyspark.sql.window import Window from pyspark.sql.functions import rank, col
window = Window.partitionBy(df['xx1']).orderBy(df['socre'].desc())
aid_aidlist_df = df.select('*', rank().over(window).alias('rank')) \
.filter(col('rank') <= 50)
( 1 ) rank 函数:ranking 列的 5 位、5 位、5 位、8 位,也就是说,如果有并列名次的行,会占用下一名次的位置。例如,正常排名是:1、2、3、4,但是现在前 3 名是并列的名次,结果就是 1、1、1、4。
( 2 ) dense_rank 函数:dense_rank 列的 5 位、5 位、5 位、6 位,也就是说,如果有并列名次的行,不占用下一名次的位置。例如,正常排名是:1、2、3、4,但是现在前 3 名是并列的名次,结果就是 1、1、1、2。
( 3 ) row_number 函数:row_num 列的 5 位、6 位、7 位、8 位,也就是说,不考虑并列名次的情况。例如,前 3 名是并列的名次,排名结果就是正常的 1、2、3、4。
文章介绍了在PySpark中,如何使用window函数进行数据排名,特别是rank、dense_rank和row_number三个函数的区别。rank函数在遇到并列名次时会占用下一个名次,dense_rank则不占用,而row_number不考虑并列情况,依次赋值。
1656

被折叠的 条评论
为什么被折叠?



