K8s Spark Job JAR参数

泽斯特07

我正在使用以下清单,并且在应用时遇到了以下错误,这是传递JAR参数的正确方法吗?

apiVersion: batch/v1
kind: Job
metadata:
  name: spark-on-eks
spec:
  template:
    spec:
      containers:
        - name: spark
          image: repo:buildversion
          command: [
            "/bin/sh",
            "-c",
            "/opt/spark/bin/spark-submit \
            --master k8s://EKSEndpoint \
            --deploy-mode cluster \
            --name spark-luluapp \
            --class com.ll.jsonclass \
            --conf spark.jars.ivy=/tmp/.ivy \
            --conf spark.kubernetes.container.image=repo:buildversion \
            --conf spark.kubernetes.namespace=spark-pi \
            --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark-sa \
            --conf spark.hadoop.fs.s3a.impl=org.apache.hadoop.fs.s3a.S3AFileSystem \
            --conf spark.kubernetes.authenticate.executor.serviceAccountName=spark-sa \
            --conf spark.kubernetes.driver.pod.name=spark-job-driver \
            --conf spark.executor.instances=4 \
            local:///opt/spark/examples/App-buildversion-SNAPSHOT.jar \
            [mks,env,reg,"dd.mm.yyyy","true","off","db-comp-results","true","XX","XXX","XXXXX","XXX",$$,###] " 
          ]
      serviceAccountName: spark-pi
      restartPolicy: Never
  backoffLimit: 4

将YAML转换为JSON时出错:yaml:第33行:找不到预期的','或']'

人力资源部

您的Yaml格式错误。试试这个。

apiVersion: batch/v1
kind: Job
metadata:
  name: spark-on-eks
spec:
  template:
    spec:
      containers:
        - name: spark
          image: repo:buildversion
          command:  
            - "/bin/sh"
            - "-c"
            - '/opt/spark/bin/spark-submit \
            --master k8s://EKSEndpoint \
            --deploy-mode cluster \
            --name spark-luluapp \
            --class com.ll.jsonclass \
            --conf spark.jars.ivy=/tmp/.ivy \
            --conf spark.kubernetes.container.image=repo:buildversion \
            --conf spark.kubernetes.namespace=spark-pi \
            --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark-sa \
            --conf spark.hadoop.fs.s3a.impl=org.apache.hadoop.fs.s3a.S3AFileSystem \
            --conf spark.kubernetes.authenticate.executor.serviceAccountName=spark-sa \
            --conf spark.kubernetes.driver.pod.name=spark-job-driver \
            --conf spark.executor.instances=4 \
            local:///opt/spark/examples/App-buildversion-SNAPSHOT.jar \
            [mks,env,reg,"dd.mm.yyyy","true","off","db-comp-results","true","XX","XXX","XXXXX","XXX",$$,###] '

      serviceAccountName: spark-pi
      restartPolicy: Never
  backoffLimit: 4

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

从Nexus获取Spark Job Jar

来自分类Dev

Spark / k8s:如何使用客户端模式在Kubernetes上运行Spark提交

来自分类Dev

通过Uber Jar和Oozie和Hue运行Spark Job

来自分类Dev

使用K8S进行Spark:禁止!配置的服务帐户无权访问

来自分类Dev

Java的Spark Job Server

来自分类Dev

什么是Spark Job?

来自分类Dev

Spark Job内部

来自分类Dev

Spark Job创建时间

来自分类Dev

K8S:将“ kubeadm init”命令行参数转换为“ --config” YAML

来自分类Dev

Spark-使用参数从Java调用Spark jar

来自分类Dev

从Spark Job创建FS快照

来自分类Dev

如何在 K8s 上运行的 JuPyterHub 上为每个笔记本设置参数

来自分类Dev

在Spark Job Server中持久/共享RDD

来自分类Dev

使用spark-submit设置Spark Job的HBase属性

来自分类Dev

K8s矩阵,顶部节点

来自分类Dev

K8s部署的插值

来自分类Dev

k8s 中的 Prometheus(指标)

来自分类Dev

K8s秘密组合

来自分类Dev

如何 curl Pod k8S

来自分类Dev

来自 K8S POD 的 CURL

来自分类Dev

为Spark创建JAR

来自分类Dev

为Spark创建JAR

来自分类Dev

通过hiveContext在Spark Job中使用Hive函数

来自分类Dev

EMR Spark Streaming Job Stdout日志记录消失

来自分类Dev

如何为 spark Job 指定集群初始化脚本

来自分类Dev

Spark AccumulatorParam通用参数

来自分类Dev

Spark中的mapreduce参数

来自分类Dev

Spark AFTSurvivalRegression参数

来自分类Dev

更改Laravel Job Class中的参数值