< spark shell 에 들어가기 위한 명령어 >
spark-shell --master yarn
< 완성된 코드를 spark 로 돌리는 명령어 >
spark-submit --class [class 이름] --master yarn [jar file 이름].jar
예) spark-submit --class WordCount --master yarn word_count.jar
scala 로 작성된 코드는 sbt 를 통해 jar 로 build 가 가능하다. 여기 문서에는 적지 않는다.
sbt 로 build 된 jar 파일 이름과 class 이름을 위의 spark-submit 에 넣어주면 spark 가
해당 코드를 돌린다.
spark 를 시작할 때 아래처럼 각종 옵션을 넣을 수 있다.
spark-shell --master yarn \
--num-executors 12 --executor-memory 4g --executor-cores 2 \
--conf spark.default.parallelism=12 \
--conf spark.sql.shuffle.partitions=12
spark-submit --class WordCount --master yarn \
--num-executors 12 --executor-memory 4g --executor-cores 2 \
--conf spark.default.parallelism=12 \
--conf spark.sql.shuffle.partitions=12 \
word_count.jar
자세한 사용법은 아래 링크 참고
'Spark' 카테고리의 다른 글
[Spark] WebUI 의 duration 과 task time 이 왜 다른가? (0) | 2019.11.01 |
---|---|
[Spark] Log Level 바꾸는 법 (1) | 2019.10.22 |
[Spark] Serialization 이해하려고 읽은 사이트들 (0) | 2019.10.10 |
[Spark] SparkWebUI 값들의 의미들 설명해주는 곳 (0) | 2019.10.01 |
[Spark] executors 에 대한 자세한 설명 (0) | 2019.09.30 |