Spark 2 到 Spark 1.6

维沙尔

我正在尝试将以下代码转换为在 spark 1.6 上运行,但是我遇到了某些问题。同时将 sparksession 转换为上下文

 object TestData {
  def makeIntegerDf(spark: SparkSession, numbers: Seq[Int]): DataFrame =
    spark.createDataFrame(
      spark.sparkContext.makeRDD(numbers.map(Row(_))),
      StructType(List(StructField("column", IntegerType, nullable = false)))
    )

}

我如何转换它以使其在 spark 1.6 上运行

拉梅什·马哈詹

SparkSession仅从spark 2.0开始支持所以,如果你想使用火花1.6,那么你需要创建SparkContextsqlContext在驱动程序类,并将其传递给函数。

所以你可以创建

val conf = new SparkConf().setAppName("simple")
val sparkContext = new SparkContext(conf)
val sqlContext = new SQLContext(sparkContext)

然后将该函数调用为

val callFunction = makeIntegerDf(sparkContext, sqlContext, numbers)

你的功能应该是

def makeIntegerDf(sparkContext: SparkContext, sqlContext: SQLContext, numbers: Seq[Int]): DataFrame =
    sqlContext.createDataFrame(
      sparkContext.makeRDD(numbers.map(Row(_))),
      StructType(List(StructField("column", IntegerType, nullable = false)))
    )

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

Spark RDD映射1到很多

来自分类Dev

提交任务到Spark

来自分类Dev

Spark(Java)到Elasticsearch

来自分类Dev

MapReduce到Spark

来自分类Dev

Spark(Java)到Elasticsearch

来自分类Dev

从Spark到Pandas Dataframe迭代

来自分类Dev

使用 SPARK 从 zip 到 seq

来自分类Dev

Spark DataFrame 到 xml 文件

来自分类Dev

将spark-jobserver部署到BlueMix Spark节点

来自分类Dev

将spark-jobserver部署到BlueMix Spark节点

来自分类Dev

更新选择=(选择%6)+ 1从python 2到python 3

来自分类Dev

如何遍历可能的整数数组,例如从[1,1,1,1]到[1,1,1,2],...,最后到[6,6,6,6]?

来自分类Dev

Apache Spark:如何将Spark DataFrame转换为RDD [(Type1,Type2,...)]类型的RDD?

来自分类Dev

Spark + Java 中从 String 到 Tuple2<String, Long> 的映射

来自分类Dev

Spark示例Java 7到Java 8

来自分类Dev

将分析数据从Spark插入到Postgres

来自分类Dev

Spark数据框UPSERT到Postgres表

来自分类Dev

获取CSV到Spark数据框

来自分类Dev

如何启用从Cassandra到Spark的流传输?

来自分类Dev

从Spark到MySQL的JDBC写入速度低

来自分类Dev

Spark RDD foreachPartition到S3

来自分类Dev

如何从Elasticsearch读取数据到Spark?

来自分类Dev

Spark数据框值到Scala列表

来自分类Dev

Spark SQL查询到熊猫问题

来自分类Dev

从Spark到Snowflake数据类型

来自分类Dev

Cassandra表到DataStax中的Spark映射

来自分类Dev

KafkaUtils.createDirectStream到String对象Spark

来自分类Dev

如何从Elasticsearch读取数据到Spark?

来自分类Dev

使用Scala的Flume Sink到Spark