HDFS 설정하기
기본적으로는, 아래 posting과 같이 Michael G. Noll씨가 설명한 바와 같이 따라하면, 하나의 machine에 single cluster를 이상없이 설치할 수 있다.
Michael이 권고하기를, 여러 개로 multi cluster를 구축하기에 앞서, 단일 cluster로 정상 작동하는지 확인 후, 여러 개를 붙여가는 방법이 보다 효과적이라고 한다.
두 개의 cluster를 master-slave로 구성하고자 한다면, 앞서 마친 단일 cluster 2개 중 하나를 master로 다른 하나를 slave로 설정한다.
- master와 slave의 conf/hadoop-site.xml에서 localhost 부분을 master로 바꿔준다.
- master의 conf/masters 파일에 master를 넣는다. (slave에서는 안해줘도 됨)
- master의 conf/slaves에 master, slave를 넣는다. (slave에서는 안해줘도 됨)
- 앞서 single cluster 설정시에 사용했던 file system directory를 지워준다. (… /dir/dfs)
- master에서 namenode를 포맷한다. (bin/hadoop/ namenode -format)
- master에서 bin/start-dfs.sh를 실행시켜 프로세스의 정상 가동 여부를 확인한다. 1) master에서 뜨는 process : Namenode, DataNode, SecondaryNamenode 2) slave에서 뜨는 process : DataNode
- master 및 slave에서 각각 로그내 이상유무를 확인한다. (ERROR 유무)
- master에서 MapReduce 를 실행 시킨다.(bin/start-mapred.sh)
- jps로 프로세스를 확인한다. 1) master에 추가되는 process : TaskTracker, JobTracker 2) slave에 추가되는 process : TaskTracker
- master 및 slave에서 각각 로그내 이상유무를 확인한다. (ERROR 유무)
정상적으로 동작한다면, start-all.sh stop-all.sh 을 실행시킴으로써 dfs 및 mapreducer를 일괄적으로 시작/종료시킬 수 있다.
요약하면, master/slave의 dfs가 정상적으로 연동되고 있다면 외형적으로는 다음 두 조건을 만족시켜야 한다.
- master 및 slave에서 각각 떠야할 프로세스들이 jps로 확인된다.
- master 및 slave의 각 로그파일에 에러가 없다.
(출처 : http://hadoop.apache.org/core/docs/current/hdfs_design.html)
Leave a Comment