오늘의 인기 글
최근 글
최근 댓글
Today
Total
11-16 07:38
관리 메뉴

우노

[Spark] SparkConf, spark-shell, spark-submit, spark-defaults.conf 적용 예 본문

Data/Spark

[Spark] SparkConf, spark-shell, spark-submit, spark-defaults.conf 적용 예

운호(Noah) 2020. 7. 10. 21:30

Spark Property

  • Spark는 SparkConf, spark-shell, spark-submit, spark-defaults.conf 을 통해 Spark Application 실행과 관련된 자원을 설정할 수 있습니다.

    • property 적용 순서는 SparkConf, spark-shell, spark-submit, spark-defaults.conf 입니다.
  • 적용 예

    • SparkConf

        val conf = new SparkConf().setAppName("Histogram").setMaster("local")
        val sc = new SparkContext(conf)
    • spark-shell

        spark-shell --master yarn --num-executors 8 --executor-cores 2 --executor-memory 2g --driver-memory 10g
    • spark-submit

        spark-submit \
        --class <main-class> \
        --master <master-url> \
        --deploy-mode <deploy-mode> \
        --conf <key>=<value> \
        ...
        <application-jar>
        [application-arguments]
    • spark-defaults.conf(설정 정보가 담긴 파일)

      • /$SPARK_HOME/conf/spark-defaults.conf

          ...
          spark.master spark:
          spark.eventLog.enabled true
          spark.driver.memory 5g
          spark.eventLog.enabled true
          ...

'Data > Spark' 카테고리의 다른 글

[Spark] MPI(Message Passing Interface)란?  (0) 2020.07.12
[Spark] Shuffle 이란?  (2) 2020.07.12
[Spark] spark.driver.maxResultSize 오류  (0) 2020.07.10
[Spark] Local file에 write하기  (0) 2020.07.09
[Spark] Spark의 Vector, Local Matrix 연산  (0) 2020.07.09
Comments