我仍在使用Spark 1.6,并训练了StandardScalar,希望将其保存并在以后的数据集中重复使用。
使用提供的示例,我可以成功地转换数据,但是找不到保存经过训练的归一化器的方法。
有什么方法可以保存经过训练的规范化工具?
假设您已经创建了scalerModel
:
import org.apache.spark.ml.feature.StandardScalerModel
scalerModel.write.save("path/folder/")
val scalerModel = StandardScalerModel.load("path/folder/")
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句