하둡 튜토리얼

install

brew install hadoop

/usr/local/Cellar/hadoop/3.2.1/libexec/etc/hadoop에서 파일 수정해야한다.

일단, hadoop-env.sh
JAVA_HOME에 자바 경로를 설정해야한다.
find / -name java로 해서 PATH/bin/java인 경로를 찾은 뒤에 PATH를 JAVA_HOME에 export하도록 한다.
여기까지가 standalone mode를 가능하게 하는 것이다.

pseudo-distributed mode
하둡 데몬들이 각각 별도의 자바 프로세스로 실행되는데 하나의 노드로 실행되는 형태이다.

hadoop-evn.sh
export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true -Djava.security.krb5.realm= -Djava.security.krb5.kdc="


core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/Cellar/hadoop/hdfs/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9010</value>
</property>
</configuration>

hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
connection refused: 환경설정 - 공유 - 원격접속허용


hdfs namenode -format
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

/usr/local/~~~~/sbin/start-dfs.sh
jps



댓글

이 블로그의 인기 게시물

논문 정리 - MapReduce: Simplified Data Processing on Large Clusters

논문 정리 - The Google File System

kazoo: Using zookeeper api with python