아래 샘플 코드를 제공함.
val df = Seq(
(1, "abc"),
(2, "def"),
(3, "ghi")
).toDF("num","str")
scala> df.show
+---+---+
|num|str|
+---+---+
| 1|abc|
| 2|def|
| 3|ghi|
+---+---+
val toSize = udf((payload:String) => payload.size)
scala> df.withColumn("ns", toSize(col("str"))).show
+---+---+---+
|num|str| ns|
+---+---+---+
| 1|abc| 3|
| 2|def| 3|
| 3|ghi| 3|
+---+---+---+
'Spark' 카테고리의 다른 글
[SBT] 자세한 설명 링크 (0) | 2020.08.11 |
---|---|
[Spark] 내가 사용한 시간 관련 기능들 (0) | 2020.08.07 |
[Spark] Cluster 모드 vs Client 모드 (0) | 2020.07.31 |
[Spark] CentOS 위에서 sbt 설치하기 (0) | 2020.07.23 |
[Spark] Logical Plan, Physical Plan 설명 링크 (0) | 2020.07.22 |