Pyspark 时间窗口函数

  • Post author:
  • Post category:其他


Pyspark提供了多种时间窗口函数,常用的有滑动窗口函数以及窗口聚合函数。以下是一个滑动时间窗口函数的实现示例:

该函数的作用是,对每个用户的小时订单数进行滑动窗口求和。滑动窗口的大小为1小时,每次滑动1小时。这里使用了

Window

类进行窗口定义,并使用

sum

函数对窗口内的

order_count

进行求和,结果存储在

hourly_order_count

列中。

from pyspark.sql.window import Window
from pyspark.sql.functions import sum, col
from pyspark.sql.types import IntegerType



假设我们有一张表,记录了每个用户在每个小时内的订单数

df = spark.createDataFrame([(1, '2022-01-01 00:00:00', 10),
                            (1, '2022-01-01 01:00:00', 20),
                            (1, '2022-01-01 02:00:00', 5),
                            (1, '2022-01-01 03:00:00', 15),
                            (1, '2022-01-01 04:00:00', 30),
                            (1, '2022-01-01 05:00:00', 40),
                            (2, '2022-01-01 00:00:00', 5),
                            (2, '2022-01-01 01:00:00', 10),
                            (2, '2022-01-01 02:00:00', 7),
                            (2, '2022-01-01 03:00:00', 30),
                            (2, '2022-01-01 04:00:00', 20),
                            (2, '2022-01-01 05:00:00', 10)],
                           ['user_id', 'order_time', 'order_count'])



定义滑动时间窗口

window = Window.partitionBy('user_id').orderBy('order_time').rangeBetween(-3600, 0)



对每个用户的小时订单数进行滑动窗口求和

df = df.withColumn('hourly_order_count', sum(col('order_count')).over(window))



查看结果

df.show()



版权声明:本文为fzcoolbaby原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。