데이터노드 개수 혹은 클러스터가 사용 가능한 코어 개수 만큼 executor를 만드는 게 추천된다.
It is recommended to have as many executors as data nodes and as many cores as you can get from the cluster.
https://jaceklaskowski.gitbooks.io/mastering-apache-spark/spark-Executor.html
https://www.dezyre.com/article/apache-spark-architecture-explained-in-detail/338
스파크 executor task metrics 관련 문서
https://spark.apache.org/docs/latest/monitoring.html#executor-task-metrics
'Spark' 카테고리의 다른 글
[Spark] Serialization 이해하려고 읽은 사이트들 (0) | 2019.10.10 |
---|---|
[Spark] SparkWebUI 값들의 의미들 설명해주는 곳 (0) | 2019.10.01 |
[Spark] partition 각각의 size 확인 및 repartition 방법 (0) | 2019.09.23 |
[Spark] Apache Spark on Kubernetes 기조 연설 (0) | 2019.09.10 |
[Spark] Spark WebUI DAG 이해하기 (0) | 2019.09.09 |