hdfs dfsadmin -report
의 결과가
Configured Capacity: 0 (0 B) Present Capacity: 0 (0 B) DFS Remaining: 0 (0 B) DFS Used: 0 (0 B) DFS Used%: NaN% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: 0 Datanodes available: 0 (0 total, 0 dead) |
위와 같이 모두 0이 떴다면, cluster의 master 노드와 slave 노드들이 연결되지 않았다는 의미가 된다.
아래 링크를 참고하여 해결한다.
참고 : https://codeday.me/ko/qa/20190428/397550.html
ㅡ아래는 개인적인 환경에서 해결 한 방법이므로 통상적인 방법이 아닙니다. 참고하지 마세요ㅡ
나의 경우 spark cluster 를 만들기 위해
kmubigdata/ubuntu-spark 이미지를 사용했는데,
master 노드의 이름을 다른 것으로 바꿨더니 위 에러 없이 잘 되었다.
나처럼 kmubigdata/ubuntu-spark 이미지를 사용하는 경우 master 라는 이름이 xml 에 하드코딩 되어 있으므로,
이름을 바꾸기 위해서
$HADOOP_HOME/etc/hadoop/ 내의 core-site.xml, mapred-site.xml, yarn-site.xml 내의 master 이름을 다른 것으로 바꿔준다.
master 노드 뿐만 아니라, slave 노드들 내의 있는 모든 이름을 바꿔야 한다.
'Spark' 카테고리의 다른 글
[Spark] scala rdd 이용한 pagerank 알고리즘 이해하기 (0) | 2019.06.14 |
---|---|
[Spark] RDD 에 대한 구체적인 설명 링크 (0) | 2019.05.23 |
[Spark] Ubuntu에 sbt 설치하는 법 (0) | 2019.05.21 |
[Spark] mongo-spark 연동하는 방법 (0) | 2019.05.20 |
[Spark] mongo lib 다운받는 곳 (0) | 2019.05.20 |