如何使用Zookeeper for HA设置Spark?

哈潘

我想配置Apache Spark Master与Zookeeper连接

我已经安装了它们并运行Zookeeper。

spark-env.sh中,我添加了两行:

-Dspark.deploy.recoveryMode=ZOOKEEPER

-Dspark.deploy.zookeeper.url=localhost:2181

但是当我./sbin/start-all.sh启动Apache spark

显示错误

/home/deploy/spark-1.0.0/sbin/../conf/spark-env.sh: line 46: -Dspark.deploy.recoveryMode=ZOOKEEPER: command not found

/home/deploy/spark-1.0.0/sbin/../conf/spark-env.sh: line 47: -Dspark.deploy.zookeeper.url=localhost:2181: command not found

我想知道如何在spark-env.sh上添加Zookeeper设置

马斯格

很可能您已将这些行直接添加到文件中,如下所示:

export SPARK_PREFIX=`dirname "$this"`/..
export SPARK_CONF_DIR="$SPARK_HOME/conf"
...
-Dspark.deploy.recoveryMode=ZOOKEEPER
-Dspark.deploy.zookeeper.url=localhost:2181

并且当由start-all.sh调用时,bash抱怨这些-Dspark...命令无效。请注意,这spark_config.sh是一个bash脚本,应包含有效的bash表达式。

继在配置指南高可用性,您应该设置SPARK_DAEMON_JAVA_OPTS与选项:spark.deploy.recoveryModespark.deploy.zookeeper.url,和spark.deploy.zookeeper.dir

使用数据,您需要添加一行,spark-conf.sh如下所示:

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=localhost:2181"

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

如何使用Zookeeper for HA设置Spark?

来自分类Dev

Spark和Zookeeper HA的多重大师

来自分类Dev

如何在Docker中设置Zookeeper dataDir(fig.yml)

来自分类Dev

如何使用自定义spark-defaults.conf设置

来自分类Dev

如何设置Spark执行程序的内存?

来自分类Dev

如何设置Spark执行器的数量?

来自分类Dev

在本地Spark上配置-如何设置?

来自分类Dev

在本地Spark上配置-如何设置?

来自分类Dev

如何阻止 SPARK 设置新的 Hive 版本

来自分类Dev

使用spark-submit设置Spark Job的HBase属性

来自分类Dev

我如何在Zookeeper中使用Runit

来自分类Dev

设置kafka的Zookeeper问题

来自分类Dev

如何为Kafka和Zookeeper设置JAVA_HOME Cloudera快速入门

来自分类Dev

使用Zookeeper在Spark独立集群中查找领导者节点

来自分类Dev

如何使用HA应用程序?

来自分类Dev

Spark SQL-如何在查询中设置变量以在整个过程中重复使用?

来自分类Dev

如何从命令行设置Spark示例的主地址

来自分类Dev

如何在YARN Spark作业中设置环境变量?

来自分类Dev

如何从Spark设置和获取静态变量?

来自分类Dev

如何在Eclipse环境中设置Spark中的堆大小?

来自分类Dev

在Mesos上Spark如何设置驱动程序的位置

来自分类Dev

如何设置配置以使Spark / Yarn作业更快?

来自分类Dev

如何在pyspark中设置spark.sql.files conf

来自分类Dev

如何设置 spark.sql.thriftServer.incrementalCollect=true

来自分类Dev

如何在 Apache Spark Standalone Cluster 中设置文件路径?

来自分类Dev

使用自定义spark和scala 2.11设置snappydata

来自分类Dev

Gradle:在Eclipse中使用Apache Spark设置Scala项目

来自分类Dev

使用saveAsNewAPIHadoopDataSet从Spark存储到HBase时设置NameSpace

来自分类Dev

如何在spark-shell中设置spark.akka.frameSize?

Related 相关文章

  1. 1

    如何使用Zookeeper for HA设置Spark?

  2. 2

    Spark和Zookeeper HA的多重大师

  3. 3

    如何在Docker中设置Zookeeper dataDir(fig.yml)

  4. 4

    如何使用自定义spark-defaults.conf设置

  5. 5

    如何设置Spark执行程序的内存?

  6. 6

    如何设置Spark执行器的数量?

  7. 7

    在本地Spark上配置-如何设置?

  8. 8

    在本地Spark上配置-如何设置?

  9. 9

    如何阻止 SPARK 设置新的 Hive 版本

  10. 10

    使用spark-submit设置Spark Job的HBase属性

  11. 11

    我如何在Zookeeper中使用Runit

  12. 12

    设置kafka的Zookeeper问题

  13. 13

    如何为Kafka和Zookeeper设置JAVA_HOME Cloudera快速入门

  14. 14

    使用Zookeeper在Spark独立集群中查找领导者节点

  15. 15

    如何使用HA应用程序?

  16. 16

    Spark SQL-如何在查询中设置变量以在整个过程中重复使用?

  17. 17

    如何从命令行设置Spark示例的主地址

  18. 18

    如何在YARN Spark作业中设置环境变量?

  19. 19

    如何从Spark设置和获取静态变量?

  20. 20

    如何在Eclipse环境中设置Spark中的堆大小?

  21. 21

    在Mesos上Spark如何设置驱动程序的位置

  22. 22

    如何设置配置以使Spark / Yarn作业更快?

  23. 23

    如何在pyspark中设置spark.sql.files conf

  24. 24

    如何设置 spark.sql.thriftServer.incrementalCollect=true

  25. 25

    如何在 Apache Spark Standalone Cluster 中设置文件路径?

  26. 26

    使用自定义spark和scala 2.11设置snappydata

  27. 27

    Gradle:在Eclipse中使用Apache Spark设置Scala项目

  28. 28

    使用saveAsNewAPIHadoopDataSet从Spark存储到HBase时设置NameSpace

  29. 29

    如何在spark-shell中设置spark.akka.frameSize?

热门标签

归档