Spark Streaming + Kafka統合0.8.2.1

andrea5

Sparkとkafkaの統合に問題があります。私はspark-streaming-kafka-0-8を使用しています。SBTでコンパイルします。これは私のコードです:

import org.apache.spark.SparkConf
import org.apache.spark.streaming._
import org.apache.kafka.clients.consumer.ConsumerRecord
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.kafka._
object sparkKafka {

    def main(args: Array[String]) {

        val sparkConf = new SparkConf().setAppName("KafkaWordCount").setMaster("local[*]")

        val ssc = new StreamingContext(sparkConf, Seconds(2))

        val kafkaStream = KafkaUtils.createStream(ssc,
    "localhost:2181", "spark stream",  Map("customer" -> 2))

        kafkaStream.print()
        ssc.start()
        ssc.awaitTermination()
    }
}

私はこのエラーを受け取りました:

`[info] Running sparkKafka
[error] (run-main-0) java.lang.NoClassDefFoundError: scala/Product$class
[error] java.lang.NoClassDefFoundError: scala/Product$class
[error]         at org.apache.spark.SparkConf$DeprecatedConfig.<init>(SparkConf.scala:723)
[error]         at org.apache.spark.SparkConf$.<init>(SparkConf.scala:571)
[error]         at org.apache.spark.SparkConf$.<clinit>(SparkConf.scala)
[error]         at org.apache.spark.SparkConf.set(SparkConf.scala:92)
[error]         at org.apache.spark.SparkConf.set(SparkConf.scala:81)
[error]         at org.apache.spark.SparkConf.setAppName(SparkConf.scala:118)
[error]         at sparkKafka$.main(sparkKafka.scala:15)
[error]         at sparkKafka.main(sparkKafka.scala)
[error]         at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
[error]         at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
[error]         at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
[error]         at java.lang.reflect.Method.invoke(Method.java:498)
[error] Caused by: java.lang.ClassNotFoundException: scala.Product$class
[error]         at java.net.URLClassLoader.findClass(URLClassLoader.java:382)
[error]         at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
[error]         at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
[error]         at org.apache.spark.SparkConf$DeprecatedConfig.<init>(SparkConf.scala:723)
[error]         at org.apache.spark.SparkConf$.<init>(SparkConf.scala:571)
[error]         at org.apache.spark.SparkConf$.<clinit>(SparkConf.scala)
[error]         at org.apache.spark.SparkConf.set(SparkConf.scala:92)
[error]         at org.apache.spark.SparkConf.set(SparkConf.scala:81)
[error]         at org.apache.spark.SparkConf.setAppName(SparkConf.scala:118)
[error]         at sparkKafka$.main(sparkKafka.scala:15)
[error]         at sparkKafka.main(sparkKafka.scala)
[error]         at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
 [error]         at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
 [error]         at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
[error]         at java.lang.reflect.Method.invoke(Method.java:498)
[error] Nonzero exit code: 1
[error] (Compile / run) Nonzero exit code: 1
[error] Total time: 6 s, completed Jan 14, 2019 2:19:15 PM.`

これは私のbuild.sbtファイルです:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.2.0" libraryDependencies += "org.apache.spark" % "spark-streaming_2.11" % "2.2.0" libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-10_2.11" % "2.2.0" libraryDependencies += "org.apache.spark" % "spark-streaming-kafka-0-8_2.11" % "2.2.0"

どうすればSparkストリーミングをKafkaと相互作用させることができますか?spark-streaming-kafka-0-10 ...でも問題があります。

ありがとう

OneCricketeer

これはScalaまたはSparkのバージョンの問題です。最初にScalaを使用していることを確認してください2.11

Kafka 0.10以降を使用している場合(最近Kafkaをセットアップし、ローカルでのみ実行している場合は、おそらくそうなるでしょう)、kafka-0-8パッケージを使用しないでください

混在させないでくださいspark-streaming-kafka-0-8spark-streaming-kafka-0-10

したがって、回答したように0-10を使用したい場合、パッケージはである必要がありますorg.apache.spark.streaming.kafka010org.apache.spark.streaming.kafka

また、0-8はZookeeper(localhost:2181たとえば)を使用し、使用しないことに注意してください0-10

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

分類Dev

Spark Structured Streaming with Kafka version 2

分類Dev

ExceptionInInitializerError Spark Streaming Kafka

分類Dev

Spark Kafka Streaming Issue

分類Dev

Kafka topic partitions to Spark streaming

分類Dev

Apache Spark Streamingの統合テストの失敗

分類Dev

Spark 1.6 Streaming consumer reading in kafka offset stuck at createDirectStream

分類Dev

How to read from specific Kafka partition in Spark structured streaming

分類Dev

spark-streaming-kafka-0-10 auto.offset.reset is always set to none

分類Dev

spark streaming throughput monitoring

分類Dev

Spark Streaming textFileStream COPYING

分類Dev

Dstream Spark Streaming

分類Dev

spark-streaming-kafka-0-10auto.offset.resetは常にnoneに設定されます

分類Dev

Spark Structured Streaming - Java8 で Dataset<Row> を kafka 出力トピックに書き込むにはどうすればよいですか

分類Dev

Understanding Spark Structured Streaming Parallelism

分類Dev

Spark Streaming standalone app and dependencies

分類Dev

Parallelism of Streams in Spark Streaming Context

分類Dev

Spark Streaming Kafka java.lang.ClassNotFoundException:org.apache.kafka.common.serialization.StringDeserializer

分類Dev

Spark Streamingは、1つのkafkaブローカーのみが指定されている場合、新しいkafkaブローカーを自動的に検出できますか?

分類Dev

Kafka + Spark Streaming-パーティション間の公平性?

分類Dev

Spark Streaming Kinesisの統合:ワーカーでLeaseCoordinatorを初期化中にエラーが発生しました

分類Dev

Spark Streamingは「1つのピアではなく0のピアのみに複製された」と警告します

分類Dev

Spark Arrow Streaming = Arrow Streaming + Spark Structured Streamingはありますか?

分類Dev

spark-streaming: how to output streaming data to cassandra

分類Dev

SparkとKafkaの統合、jarのSpark-submitでの例外

分類Dev

2つの方法を1つに統合

分類Dev

How to fix "java.io.NotSerializableException: org.apache.kafka.clients.consumer.ConsumerRecord" in Spark Streaming Kafka Consumer?

分類Dev

write an RDD into HDFS in a spark-streaming context

分類Dev

Spark streaming data sharing between batches

分類Dev

Spark Streaming on a S3 Directory

Related 関連記事

  1. 1

    Spark Structured Streaming with Kafka version 2

  2. 2

    ExceptionInInitializerError Spark Streaming Kafka

  3. 3

    Spark Kafka Streaming Issue

  4. 4

    Kafka topic partitions to Spark streaming

  5. 5

    Apache Spark Streamingの統合テストの失敗

  6. 6

    Spark 1.6 Streaming consumer reading in kafka offset stuck at createDirectStream

  7. 7

    How to read from specific Kafka partition in Spark structured streaming

  8. 8

    spark-streaming-kafka-0-10 auto.offset.reset is always set to none

  9. 9

    spark streaming throughput monitoring

  10. 10

    Spark Streaming textFileStream COPYING

  11. 11

    Dstream Spark Streaming

  12. 12

    spark-streaming-kafka-0-10auto.offset.resetは常にnoneに設定されます

  13. 13

    Spark Structured Streaming - Java8 で Dataset<Row> を kafka 出力トピックに書き込むにはどうすればよいですか

  14. 14

    Understanding Spark Structured Streaming Parallelism

  15. 15

    Spark Streaming standalone app and dependencies

  16. 16

    Parallelism of Streams in Spark Streaming Context

  17. 17

    Spark Streaming Kafka java.lang.ClassNotFoundException:org.apache.kafka.common.serialization.StringDeserializer

  18. 18

    Spark Streamingは、1つのkafkaブローカーのみが指定されている場合、新しいkafkaブローカーを自動的に検出できますか?

  19. 19

    Kafka + Spark Streaming-パーティション間の公平性?

  20. 20

    Spark Streaming Kinesisの統合:ワーカーでLeaseCoordinatorを初期化中にエラーが発生しました

  21. 21

    Spark Streamingは「1つのピアではなく0のピアのみに複製された」と警告します

  22. 22

    Spark Arrow Streaming = Arrow Streaming + Spark Structured Streamingはありますか?

  23. 23

    spark-streaming: how to output streaming data to cassandra

  24. 24

    SparkとKafkaの統合、jarのSpark-submitでの例外

  25. 25

    2つの方法を1つに統合

  26. 26

    How to fix "java.io.NotSerializableException: org.apache.kafka.clients.consumer.ConsumerRecord" in Spark Streaming Kafka Consumer?

  27. 27

    write an RDD into HDFS in a spark-streaming context

  28. 28

    Spark streaming data sharing between batches

  29. 29

    Spark Streaming on a S3 Directory

ホットタグ

アーカイブ