SparkStreaming-ExitCodeException exitCode = 13

Aditya calangutkar

ヤーンクラスターでspark-submitを使用してSparkストリーミングアプリケーションを実行しています。ローカルモードで実行すると、正常に動作しています。しかし、spark-submitを使用してyarn-clusterで実行しようとすると、しばらく実行されてから、次の実行で終了します。

Diagnostics: Exception from container-launch.
Container id: container_1435576266959_1208_02_000002
Exit code: 13
Stack trace: ExitCodeException exitCode=13:
        at org.apache.hadoop.util.Shell.runCommand(Shell.java:538)
        at org.apache.hadoop.util.Shell.run(Shell.java:455)
        at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:715)
        at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:212)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
        at java.util.concurrent.FutureTask.run(FutureTask.java:262)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
        at java.lang.Thread.run(Thread.java:745)

どんな助けでもありがたいです。

Aditya calangutkar

私は解決策を得ました。

Spark Streamingアプリケーションでは、SparkConf.setMaster( "local [*]")を設定し、spark-submitでは--masteryarn-clusterを提供していました。

そのため、両方のマスターで競合が発生し、ACCEPTED状態のままで終了していました。

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

分類Dev

SparkはYarnクラスターexitCode = 13で実行されます:

分類Dev

SparkStreaming: avoid checkpointLocation check

分類Dev

SparkStreamingの累積単語数

分類Dev

SparkStreamingでの順序処理

分類Dev

SparkStreaming:fileStream()のエラー

分類Dev

JavaDStreamの並べ替え-SparkStreaming

分類Dev

DStream [Class] SparkStreamingのreduceByKey / aggregateByKey代替

分類Dev

SparkStreamingのgroupby理想的な戦略

分類Dev

SparkStreaming-CheckPointingの問題

分類Dev

SparkStreamingのWebログ解析

分類Dev

exitcode = 217で終了しました

分類Dev

SparkStreaming:checkpointLocationチェックを回避

分類Dev

SparkStreamingで中央値を見つける

分類Dev

spark exitCode:12はどういう意味ですか?

分類Dev

SparkがexitCode:16で終了するのはなぜですか?

分類Dev

WinSCPExecuteCommandはIsSuccess = trueを報告しますが、ExitCode = 1です

分類Dev

Powershellからexitcodeを取得してCMDに戻る方法は?

分類Dev

Pythonでのpikaを使用したSparkStreaming、RabbitMQおよびMQTT

分類Dev

SparkStreamingを使用したCassandraからの読み取り

分類Dev

SparkStreamingでHbaseデータを読み取る

分類Dev

SparkStreamingジョブでJDBC接続を1回開始します

分類Dev

SparkStreamingからのRestAPIサービス呼び出し

分類Dev

SparkStreamingでkafkaプロデューサーを再利用する

分類Dev

多くの小さなファイルを作成するSparkStreaming

分類Dev

SparkStreamingでStreamingContextをReceiverから分離する

分類Dev

遅延を伴うKafkaへのSparkStreaming書き込み-x分後

分類Dev

SparkStreamingでKafkaConsumerを一時停止して再開します

分類Dev

SparkStreamingで特定の数の行を処理できません

分類Dev

SparkStreamingを使用したツイートの永続化

Related 関連記事

  1. 1

    SparkはYarnクラスターexitCode = 13で実行されます:

  2. 2

    SparkStreaming: avoid checkpointLocation check

  3. 3

    SparkStreamingの累積単語数

  4. 4

    SparkStreamingでの順序処理

  5. 5

    SparkStreaming:fileStream()のエラー

  6. 6

    JavaDStreamの並べ替え-SparkStreaming

  7. 7

    DStream [Class] SparkStreamingのreduceByKey / aggregateByKey代替

  8. 8

    SparkStreamingのgroupby理想的な戦略

  9. 9

    SparkStreaming-CheckPointingの問題

  10. 10

    SparkStreamingのWebログ解析

  11. 11

    exitcode = 217で終了しました

  12. 12

    SparkStreaming:checkpointLocationチェックを回避

  13. 13

    SparkStreamingで中央値を見つける

  14. 14

    spark exitCode:12はどういう意味ですか?

  15. 15

    SparkがexitCode:16で終了するのはなぜですか?

  16. 16

    WinSCPExecuteCommandはIsSuccess = trueを報告しますが、ExitCode = 1です

  17. 17

    Powershellからexitcodeを取得してCMDに戻る方法は?

  18. 18

    Pythonでのpikaを使用したSparkStreaming、RabbitMQおよびMQTT

  19. 19

    SparkStreamingを使用したCassandraからの読み取り

  20. 20

    SparkStreamingでHbaseデータを読み取る

  21. 21

    SparkStreamingジョブでJDBC接続を1回開始します

  22. 22

    SparkStreamingからのRestAPIサービス呼び出し

  23. 23

    SparkStreamingでkafkaプロデューサーを再利用する

  24. 24

    多くの小さなファイルを作成するSparkStreaming

  25. 25

    SparkStreamingでStreamingContextをReceiverから分離する

  26. 26

    遅延を伴うKafkaへのSparkStreaming書き込み-x分後

  27. 27

    SparkStreamingでKafkaConsumerを一時停止して再開します

  28. 28

    SparkStreamingで特定の数の行を処理できません

  29. 29

    SparkStreamingを使用したツイートの永続化

ホットタグ

アーカイブ