hdfs dfsadmin -report
의 결과가
| Configured Capacity: 0 (0 B) Present Capacity: 0 (0 B) DFS Remaining: 0 (0 B) DFS Used: 0 (0 B) DFS Used%: NaN% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: 0 Datanodes available: 0 (0 total, 0 dead) |
위와 같이 모두 0이 떴다면, cluster의 master 노드와 slave 노드들이 연결되지 않았다는 의미가 된다.
아래 링크를 참고하여 해결한다.
참고 : https://codeday.me/ko/qa/20190428/397550.html
Hadoop 데이터 노드 슬레이브가 마스터에 연결되어 있지 않습니다. - 코드 로그
많은 에러로 인해 왜 데이터 노드 슬레이브 VM을 마스터 VM에 연결하지 않는지 알 수 없습니다. 어떤 제안이라도 환영합니다. 그래서 시도해 볼 수 있습니다.그리고 시작하려면, 그들 중 하나는 내 슬레이브 VM 로그에있는이 오류입니다 : WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server: ubuntu-378e53c1-3e1f-4f6e-904d-00ef078f
codeday.me
ㅡ아래는 개인적인 환경에서 해결 한 방법이므로 통상적인 방법이 아닙니다. 참고하지 마세요ㅡ
나의 경우 spark cluster 를 만들기 위해
kmubigdata/ubuntu-spark 이미지를 사용했는데,
master 노드의 이름을 다른 것으로 바꿨더니 위 에러 없이 잘 되었다.
나처럼 kmubigdata/ubuntu-spark 이미지를 사용하는 경우 master 라는 이름이 xml 에 하드코딩 되어 있으므로,
이름을 바꾸기 위해서
$HADOOP_HOME/etc/hadoop/ 내의 core-site.xml, mapred-site.xml, yarn-site.xml 내의 master 이름을 다른 것으로 바꿔준다.
master 노드 뿐만 아니라, slave 노드들 내의 있는 모든 이름을 바꿔야 한다.
'Spark' 카테고리의 다른 글
| [Spark] scala rdd 이용한 pagerank 알고리즘 이해하기 (0) | 2019.06.14 |
|---|---|
| [Spark] RDD 에 대한 구체적인 설명 링크 (0) | 2019.05.23 |
| [Spark] Ubuntu에 sbt 설치하는 법 (0) | 2019.05.21 |
| [Spark] mongo-spark 연동하는 방법 (0) | 2019.05.20 |
| [Spark] mongo lib 다운받는 곳 (0) | 2019.05.20 |