如何将Array [org.apache.spark.sql.Row]转换为Array [Int]

PKM15

我试图将Array [Row]转换为Array [Int],但徒劳。感谢一些帮助

scala> res17(0).toInt
<console>:30: error: value toInt is not a member of org.apache.spark.sql.Row
          res17(0).toInt
                   ^

scala> res17(0)
res28: org.apache.spark.sql.Row = [1,0]

scala> res17(0).toArray
<console>:30: error: value toArray is not a member of org.apache.spark.sql.Row
          res17(0).toArray
                   ^

scala> res17
res30: Array[org.apache.spark.sql.Row] = Array([1,0])
用户名

只要mapgetInt

val rows: Array[Row] = ???
rows.map(_.getInt(0))

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

org.apache.spark.sql.Row转换为Int

来自分类Dev

Spark MLlib如何将org.apache.spark.rdd.RDD [Array [Double]]转换为Array [Double]

来自分类Dev

如何将 UDF 应用于收集的行?(因“java.lang.ClassCastException:java.lang.String 无法转换为 org.apache.spark.sql.Column”而失败)

来自分类Dev

spark - scala: not a member of org.apache.spark.sql.Row

来自分类Dev

如何构造可用于在 spark/scala 中映射 JavaRDD[org.apache.spark.sql.Row] 的函数?

来自分类Dev

如何将 Spark 数据帧列从 Array[Int] 转换为 linalg.Vector?

来自分类Dev

从org.apache.spark.sql.Row中提取信息

来自分类Dev

value head 不是 org.apache.spark.sql.Row 的成员

来自分类Dev

如何在mapPartitions内的org.apache.spark.sql.Row中添加列

来自分类Dev

使用Scala将org.apache.spark.mllib.linalg.Vector RDD转换为Spark中的DataFrame

来自分类Dev

org.apache.spark.sql.AnalysisException:

来自分类Dev

spark-scala:不是org.apache.spark.sql.Row的成员

来自分类Dev

forEach Spark Scala中的错误:值选择不是org.apache.spark.sql.Row的成员

来自分类Dev

Scala将列的十六进制子字符串转换为十进制-Dataframe org.apache.spark.sql.catalyst.parser.ParseException:

来自分类Dev

如何解决 Spark 中的“aggregateByKey 不是 org.apache.spark.sql.Dataset 的成员”?

来自分类Dev

Spark SQL-如何将RelationalGroupedDataSet转换为DataFrame

来自分类Dev

NoSuchMethodError:org.apache.spark.sql.SQLContext.sql

来自分类Dev

将列表项映射到org.apache.spark.sql.Column类型

来自分类Dev

org.apache.spark.sql.AnalysisException:将数据插入 Hive 表时找不到表

来自分类Dev

如何对 org.apache.spark.sql.DataFrame 做条形图?

来自分类Dev

如何将Array [Seq [String]]传递给Apache Spark UDF?(错误:不适用)

来自分类Dev

java.lang.ClassNotFoundException:org.apache.spark.sql.Dataset

来自分类Dev

值registerAsTable不是org.apache.spark.sql.DataFrame的成员

来自分类Dev

解析异常-org.apache.spark.sql.catalyst.parser.ParseException:

来自分类Dev

错误:bulkCopyToSqlDB不是org.apache.spark.sql.DataFrameWriter的成员

来自分类Dev

无法解析类型org.apache.spark.sql.SchemaRDD

来自分类Dev

值avro不是org.apache.spark.sql.DataFrameReader的成员

来自分类Dev

java.lang.ClassNotFoundException:org.apache.spark.sql.Dataset

来自分类Dev

org.apache.spark.sql.AnalysisException 调用 saveAsTable 时

Related 相关文章

  1. 1

    org.apache.spark.sql.Row转换为Int

  2. 2

    Spark MLlib如何将org.apache.spark.rdd.RDD [Array [Double]]转换为Array [Double]

  3. 3

    如何将 UDF 应用于收集的行?(因“java.lang.ClassCastException:java.lang.String 无法转换为 org.apache.spark.sql.Column”而失败)

  4. 4

    spark - scala: not a member of org.apache.spark.sql.Row

  5. 5

    如何构造可用于在 spark/scala 中映射 JavaRDD[org.apache.spark.sql.Row] 的函数?

  6. 6

    如何将 Spark 数据帧列从 Array[Int] 转换为 linalg.Vector?

  7. 7

    从org.apache.spark.sql.Row中提取信息

  8. 8

    value head 不是 org.apache.spark.sql.Row 的成员

  9. 9

    如何在mapPartitions内的org.apache.spark.sql.Row中添加列

  10. 10

    使用Scala将org.apache.spark.mllib.linalg.Vector RDD转换为Spark中的DataFrame

  11. 11

    org.apache.spark.sql.AnalysisException:

  12. 12

    spark-scala:不是org.apache.spark.sql.Row的成员

  13. 13

    forEach Spark Scala中的错误:值选择不是org.apache.spark.sql.Row的成员

  14. 14

    Scala将列的十六进制子字符串转换为十进制-Dataframe org.apache.spark.sql.catalyst.parser.ParseException:

  15. 15

    如何解决 Spark 中的“aggregateByKey 不是 org.apache.spark.sql.Dataset 的成员”?

  16. 16

    Spark SQL-如何将RelationalGroupedDataSet转换为DataFrame

  17. 17

    NoSuchMethodError:org.apache.spark.sql.SQLContext.sql

  18. 18

    将列表项映射到org.apache.spark.sql.Column类型

  19. 19

    org.apache.spark.sql.AnalysisException:将数据插入 Hive 表时找不到表

  20. 20

    如何对 org.apache.spark.sql.DataFrame 做条形图?

  21. 21

    如何将Array [Seq [String]]传递给Apache Spark UDF?(错误:不适用)

  22. 22

    java.lang.ClassNotFoundException:org.apache.spark.sql.Dataset

  23. 23

    值registerAsTable不是org.apache.spark.sql.DataFrame的成员

  24. 24

    解析异常-org.apache.spark.sql.catalyst.parser.ParseException:

  25. 25

    错误:bulkCopyToSqlDB不是org.apache.spark.sql.DataFrameWriter的成员

  26. 26

    无法解析类型org.apache.spark.sql.SchemaRDD

  27. 27

    值avro不是org.apache.spark.sql.DataFrameReader的成员

  28. 28

    java.lang.ClassNotFoundException:org.apache.spark.sql.Dataset

  29. 29

    org.apache.spark.sql.AnalysisException 调用 saveAsTable 时

热门标签

归档