主机 | 主机名 | 节点名 |
---|---|---|
192.168.10.147 | node1 | NameNode(master) |
192.168.10.207 | node2 | DataNode1 |
192.168.10.211 | node3 | DataNode2 |
192.168.10.212 | node4 | DataNode3 |
部署位置:/usr/local/hadoop
/etc/local
目录;hadoop-env.sh
、core-site.xml
、hdfs-site.xml
、mapred--site.xml
、yarn-site.yml
、workers
;pwd
将Hadoop命令加入系统环境变量/etc/profile
:
JAVA_HOME=/usr/local/jdk1.8/
JAVA_BIN=/usr/local/jdk1.8/bin
JRE_HOME=/usr/local/jdk1.8/jre
CLASSPATH=/usr/local/jdk1.8/jre/lib:/usr/local/jdk1.8/lib:/usr/local/jdk1.8/jre/lib/charset.jar
HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbinin
将文件分发到各个节点,然后source /etc/profile
。
hdfs namenode -format
- 生成集群的ID;
- 生成fs-image文件,目的是元数据持久化。启动:
$ start-dfs.sh
启动日志保存在
http://node1:9870
Daemon | Web Interface | Notes |
---|---|---|
NameNode | http://nn_host:port/ | Default HTTP port is 9870. |
NameNode默认web端口为9870,在配置hadoop时不要与之冲突。