spark-shell 에서 알아서 만들어주는 Spark context(sc) 와 Spark session(spark) 는
spark-submit 에서는 어떻게 만들어서 얻어야 할까?
먼저 SparkSession 을 import 한다.
import org.apache.spark.sql.SparkSession
spark session 은 아래 코드를 참고하여 만든다.
val spark = SparkSession.builder.appName("myapp").getOrCreate()
spark context 는 아래 코드를 참고하여 만든다.
val sc = spark.sparkContext
'Spark' 카테고리의 다른 글
[Spark] 좀 더 자세히 이해하기 (0) | 2019.12.19 |
---|---|
[Spark] Local Spark 와 AWS S3 연동하는 방법 (0) | 2019.12.19 |
[Spark Streaming] Yahoo Benchmark github링크 (0) | 2019.12.11 |
[Scala] map vs flatmap 차이 (0) | 2019.12.09 |
[Spark] 성능 튜닝 참고 링크들 (0) | 2019.11.21 |