我有一个带有以下数据的Scala Spark SQL。如何将分数离散化/四舍五入到下面给出的最接近的小数位。由于我没有为此找到任何预定义的功能。谁能帮我解决这个问题。
49.5 --> from 49.50 to 49.99
50 ---> 50.0 to 50.49
50.5 --->50.5 to 50.99
4.5 ---> 4.50 to 4.99
5.0 ---> 5.0 to 5.49
9.5 --> 9.50 to 9.99
10--->10 to 10.49
我希望将49.50到49.99的值设为49.5,将10到10.49的值设为10。很快
舍入任何数字的更通用解决方案(我又添加了两行进行说明)。
val df2 = df.withColumn("val2", ((col("val") / 0.5).cast("int"))*0.5)
df2.show
+-----+----+
| val|val2|
+-----+----+
| 49.5|49.5|
|49.99|49.5|
| 50.0|50.0|
| 1.1| 1.0|
| 9.9| 9.5|
| 10.0|10.0|
+-----+----+
对于Spark SQL:
df.createOrReplaceTempView("df")
spark.sql("select val, int(val / 0.5) * 0.5 as val2 from df").show
+-----+----+
| val|val2|
+-----+----+
| 49.5|49.5|
|49.99|49.5|
| 50.0|50.0|
| 1.1| 1.0|
| 9.9| 9.5|
| 10.0|10.0|
+-----+----+
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句