无法在HDP 2.0上运行Spark 1.0 SparkPi

康斯坦丁·库德里亚夫采夫(Konstantin Kudryavtsev)

我在HDP 2.0上运行Spark PI示例时遇到了问题

我从http://spark.apache.org/downloads.html(对于HDP2)下载了spark 1.0的预构建版本。

 ./bin/spark-submit --class org.apache.spark.examples.SparkPi     --master yarn-cluster --num-executors 3 --driver-memory 2g --executor-memory 2g --executor-cores 1 ./lib/spark-examples-1.0.0-hadoop2.2.0.jar 2

我收到错误消息:

应用程序application_1404470405736_0044失败3次,原因是appattempt_1404470405736_0044_000003的AM容器退出,退出代码为1:由于:容器启动异常:org.apache.hadoop.util.Shell $ ExitCodeException:在org.apache.hadoop.util.Shell.runCommand( Shell.java:464),位于org.apache.hadoop.util.Shell.run(Shell.java:379),位于org.apache.hadoop.util.Shell $ ShellCommandExecutor.execute(Shell.java:589),位于org.apache org.apache上的.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:195)在org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:283)在org.ap. java.util.concurrent.FutureTask.run(FutureTask.java:262)上的.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:79)在java.util.concurrent上。尝试失败..尝试在java.lang.Thread.run(Thread.java:744)上找到ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)在java.util.concurrent.ThreadPoolExecutor $ Worker.run(ThreadPoolExecutor.java:615)上。应用程序失败。

未知/不受支持的参数列表(--executor-memory,2048,--executor-cores,1,--num-executors,3)用法:org.apache.spark.deploy.yarn.ApplicationMaster [options]选项:
- jar JAR_PATH应用程序的JAR文件的路径(必需)--class CLASS_NAME应用程序的主类的名称(必需)... bla-bla-bla

有任何想法吗?我如何使它起作用?

帕维尔·梅岑采夫(Pavel Mezentsev)

我有同样的问题。原因是hdfsspark-assembly.jar的版本不同于您当前的spark版本。

例如hdfs版本中的org.apache.spark.deploy.yarn.Client的params列表

  $ hadoop jar ./spark-assembly.jar  org.apache.spark.deploy.yarn.Client --help
Usage: org.apache.spark.deploy.yarn.Client [options] 
Options:
  --jar JAR_PATH             Path to your application's JAR file (required in yarn-cluster mode)
  --class CLASS_NAME         Name of your application's main class (required)
  --args ARGS                Arguments to be passed to your application's main class.
                             Mutliple invocations are possible, each will be passed in order.
  --num-workers NUM          Number of workers to start (Default: 2)
  --worker-cores NUM         Number of cores for the workers (Default: 1). This is unsused right now.
  --master-class CLASS_NAME  Class Name for Master (Default: spark.deploy.yarn.ApplicationMaster)
  --master-memory MEM        Memory for Master (e.g. 1000M, 2G) (Default: 512 Mb)
  --worker-memory MEM        Memory per Worker (e.g. 1000M, 2G) (Default: 1G)
  --name NAME                The name of your application (Default: Spark)
  --queue QUEUE              The hadoop queue to use for allocation requests (Default: 'default')
  --addJars jars             Comma separated list of local jars that want SparkContext.addJar to work with.
  --files files              Comma separated list of files to be distributed with the job.
  --archives archives        Comma separated list of archives to be distributed with the job.

对于最新安装的spark-assembly jar文件也有相同的帮助:

$ hadoop jar ./spark-assembly-1.0.0-cdh5.1.0-hadoop2.3.0-cdh5.1.0.jar org.apache.spark.deploy.yarn.Client
Usage: org.apache.spark.deploy.yarn.Client [options] 
Options:
  --jar JAR_PATH             Path to your application's JAR file (required in yarn-cluster mode)
  --class CLASS_NAME         Name of your application's main class (required)
  --arg ARGS                 Argument to be passed to your application's main class.
                             Multiple invocations are possible, each will be passed in order.
  --num-executors NUM        Number of executors to start (Default: 2)
  --executor-cores NUM       Number of cores for the executors (Default: 1).
  --driver-memory MEM        Memory for driver (e.g. 1000M, 2G) (Default: 512 Mb)
  --executor-memory MEM      Memory per executor (e.g. 1000M, 2G) (Default: 1G)
  --name NAME                The name of your application (Default: Spark)
  --queue QUEUE              The hadoop queue to use for allocation requests (Default: 'default')
  --addJars jars             Comma separated list of local jars that want SparkContext.addJar to work with.
  --files files              Comma separated list of files to be distributed with the job.
  --archives archives        Comma separated list of archives to be distributed with the job.

因此,我将spark-assembly.jar更新为hdfs,并且spark开始正常运行

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

无法在Apache Spark集群上运行sparkPi

来自分类Dev

Apache Spark:SparkPi示例

来自分类Dev

在R中将(0,1,0,0,1,1,1)转换为(0,0,0,1,0,1,2)

来自分类Dev

zookeeper无法打开localhost / 0:0:0:0:0:0:0:0:1:2181的套接字

来自分类Dev

索引 = 2 不在 [0, 1)

来自分类Dev

在本地运行SparkPi时连接被拒绝

来自分类Dev

在本地运行SparkPi时连接被拒绝

来自分类Dev

无法启动 AWS EC2 实例上 HDP2.6.1 Sandbox 的大部分服务

来自分类Dev

使用Scala收集方法可帮助将[0,0,0,1,1,1,1,0,0,1,1]的列表转换为[3,4,2,2]

来自分类Dev

无法在不可变对象上设置动画(0)。(1)?

来自分类Dev

Error1错误LNK1107:文件无效或损坏:无法在0x2B0读取

来自分类Dev

该代码的含义([1、2、3] || 0)[0]

来自分类Dev

该代码的含义([1、2、3] || 0)[0]

来自分类Dev

为什么1/2 == 0使用double?

来自分类Dev

为什么2 **(1 << 31)== 0?

来自分类Dev

标签长度2应该为1或0

来自分类Dev

在2个磁盘上突袭0 + 1

来自分类Dev

Android - 获取数字的索引 #0 、 #1 、 #2

来自分类Dev

Apache2无法启动:libaprutil-1.so.0 =>找不到

来自分类Dev

无法从CursorWindow读取行0,col -1?

来自分类Dev

我无法计算0 <=数字<1的sqrt

来自分类Dev

用于生成 [((0,0),0), ((0,1),0), ((1,0),0), ((1,1),0)] 的代码实际上给出了 [0 , 0, 0, 1, 1, 0, 1, 1],如何解决?

来自分类Dev

如何定义一个列表,该列表的结果为序列[(0,0),(1,0),(2,0),(3,0)等]和[(0,0),(0,1 ),(0,2),(0,3)等]

来自分类Dev

插入无法在mysql 5.7.12-0上运行?

来自分类Dev

尝试运行SparkPi示例时发生ClassNotFoundException

来自分类Dev

T(0) = 1, T(1) = 0, T(n ) = 2* T(n-2) 的递归关系

来自分类Dev

值更改(避免0 1到1 2)

来自分类Dev

创建序列0、0、0、0、0、1、1、1、1、1、2、2、2、2、2、3、3、3、3、3、4、4、4、4、4 ,带有seq()的4

来自分类Dev

Swift JSON 错误无法将“__NSArrayM”(0x10b2cba88)类型的值转换为“NSDictionary”(0x10b2cd1a8)

Related 相关文章

  1. 1

    无法在Apache Spark集群上运行sparkPi

  2. 2

    Apache Spark:SparkPi示例

  3. 3

    在R中将(0,1,0,0,1,1,1)转换为(0,0,0,1,0,1,2)

  4. 4

    zookeeper无法打开localhost / 0:0:0:0:0:0:0:0:1:2181的套接字

  5. 5

    索引 = 2 不在 [0, 1)

  6. 6

    在本地运行SparkPi时连接被拒绝

  7. 7

    在本地运行SparkPi时连接被拒绝

  8. 8

    无法启动 AWS EC2 实例上 HDP2.6.1 Sandbox 的大部分服务

  9. 9

    使用Scala收集方法可帮助将[0,0,0,1,1,1,1,0,0,1,1]的列表转换为[3,4,2,2]

  10. 10

    无法在不可变对象上设置动画(0)。(1)?

  11. 11

    Error1错误LNK1107:文件无效或损坏:无法在0x2B0读取

  12. 12

    该代码的含义([1、2、3] || 0)[0]

  13. 13

    该代码的含义([1、2、3] || 0)[0]

  14. 14

    为什么1/2 == 0使用double?

  15. 15

    为什么2 **(1 << 31)== 0?

  16. 16

    标签长度2应该为1或0

  17. 17

    在2个磁盘上突袭0 + 1

  18. 18

    Android - 获取数字的索引 #0 、 #1 、 #2

  19. 19

    Apache2无法启动:libaprutil-1.so.0 =>找不到

  20. 20

    无法从CursorWindow读取行0,col -1?

  21. 21

    我无法计算0 <=数字<1的sqrt

  22. 22

    用于生成 [((0,0),0), ((0,1),0), ((1,0),0), ((1,1),0)] 的代码实际上给出了 [0 , 0, 0, 1, 1, 0, 1, 1],如何解决?

  23. 23

    如何定义一个列表,该列表的结果为序列[(0,0),(1,0),(2,0),(3,0)等]和[(0,0),(0,1 ),(0,2),(0,3)等]

  24. 24

    插入无法在mysql 5.7.12-0上运行?

  25. 25

    尝试运行SparkPi示例时发生ClassNotFoundException

  26. 26

    T(0) = 1, T(1) = 0, T(n ) = 2* T(n-2) 的递归关系

  27. 27

    值更改(避免0 1到1 2)

  28. 28

    创建序列0、0、0、0、0、1、1、1、1、1、2、2、2、2、2、3、3、3、3、3、4、4、4、4、4 ,带有seq()的4

  29. 29

    Swift JSON 错误无法将“__NSArrayM”(0x10b2cba88)类型的值转换为“NSDictionary”(0x10b2cd1a8)

热门标签

归档