我有一些很简单的东西。
我想要达到的目标是每组,如果满足特定条件,则增加一个数字(等级?)。对于每个组,它从1开始,如果满足条件,则下一行是上一行+1的值。在组内,每次满足条件时,都加1。
下表可能会更清楚地显示它。(我尝试创建的是“ what_i_want”列)
group to_add_number what_i_want
aaaaaa 0 1
aaaaaa 0 1
aaaaaa 1 2
aaaaaa 0 2
aaaaaa 0 2
aaaaaa 1 3
aaaaaa 0 3
aaaaaa 0 3
bbbbbb 0 1
bbbbbb 1 2
bbbbbb 1 3
bbbbbb 0 3
cccccc 0 1
cccccc 0 1
cccccc 0 1
cccccc 1 2
我认为可以使用窗口函数(滞后),但我无法到达那里。
我试过的是:
from pyspark.sql.functions import lit,when,lag,row_number
from pyspark.sql.window import Window
windowSpec=Window.partitionBy('group')
df=df.withColumn('tmp_rnk',lit(1))
df=df.withColumn('what_i_want',when(col('to_add_number')==0,lag('tmp_rnk').over(windowSpec)).otherwise(col('what_i_want')+1)
or
df=df.withColumn('tmp_rnk',lit(1))
df=df.withColumn('row_number_rank',row_number().over(windowSpec))
df=df.withColumn('what_i_want',when((col('to_add_number')==0)&(col('row_number_rank')==1)
,lit(1)
.when(col('to_add_number')==0)&(col('row_number_rank')>1),lag('what_i_want').over(windowSpec).otherwise(col('what_i_want')+1)
我尝试了几种变体,根据“条件窗口函数”,“滞后,超前....”搜索了stackoverflow,但没有任何效果,或者我没有找到重复的问题。
要获取column what_i_want
,您可以incremental sum
在to_add_number
orderby列(order_id
)上运行。
from pyspark.sql import functions as F
from pyspark.sql.window import Window
df.withColumn("order_id", F.monotonically_increasing_id())\
.withColumn("what_i_want", F.sum("to_add_number").over(Window().partitionBy("group").orderBy("order_id"))+1)\
.orderBy("order_id").drop("order_id").show()
#+------+-------------+-----------+
#| group|to_add_number|what_i_want|
#+------+-------------+-----------+
#|aaaaaa| 0| 1|
#|aaaaaa| 0| 1|
#|aaaaaa| 1| 2|
#|aaaaaa| 0| 2|
#|aaaaaa| 0| 2|
#|aaaaaa| 1| 3|
#|aaaaaa| 0| 3|
#|aaaaaa| 0| 3|
#|bbbbbb| 0| 1|
#|bbbbbb| 1| 2|
#|bbbbbb| 1| 3|
#|bbbbbb| 0| 3|
#|cccccc| 0| 1|
#|cccccc| 0| 1|
#|cccccc| 0| 1|
#|cccccc| 1| 2|
#+------+-------------+-----------+
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句