配置文件说明
(1)默认配置文件:
(2)自定义配置文件:
core-site.xml 、hdfs-site.xml 、yarn-site.xml 、mapred-site.xml 四个配置文件存放在
$HADOOP_HOME/etc/hadoop 这个路径上,用户可以根据项目需求重新进行修改配置
3 ) 配置 集群
(1)核心配置文件(core-site.xml)
<configuration>
<!– 指定 NameNode 的地址 –>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
<!– 指定 hadoop 数据的存储目录 –>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/data/tmp</value>
</property>
(2)HDFS 配置文件
<!– NameNode web 端访问地址–>
<property>
<name>dfs.namenode.http-address</name>
<value>master:9870</value>
</property>
<!– SecondaryNameNode web 端访问地址–>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master02:9868</value>
</property>
(3)YARN 配置文件
<!– 指定 Mapreduce shuffle –>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!– 指定 ResourceManager 的地址–>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master02</value>
</property>
<!– 环境变量的继承 –>
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,
CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
(4)MapReduce 配置文件
<!– 指定 MapReduce 程序运行在 Yarn 上 –>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
4 ) 在集群上分发配置好的 Hadoop 配置文件
scp -r /opt/hadoop root@master02:/opt
scp -r /opt/hadoop root@master03:/opt
5 ) 去 103 和 104 上 查看文件分发情况
(二)群起集群并测试
1 ) 配置 workers
master
master02
master03
2 ) 启动集群
(1)初始化(注意:只有第一次的时候才需要)
hdfs namenode -format
如果集群是第一次启动,需要在 hadoop102 节点格式化 NameNode(注意:格式化 NameNode,会产生新的集群 id,
导致 NameNode 和 DataNode 的集群 id 不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化
NameNode 的话,一定要先停止 namenode 和 datanode 进程,并且要删除所有机器的 data 和 logs 目录,
然后再进行格式化。
(2)启动 HDFS
start-dfs.sh
(3) 在配置了 ResourceManager 的节点 (==master03== )启动 YARN
start-yarn.sh
(4)Web 端查看 HDFS 的 NameNode
(a)浏览器中输入:http://master:9870
(b)查看 HDFS 上存储的数据信息
此外HDFS还给我们准备了一个HDFS web页面;输入master:9870
(5)Web 端查看 YARN 的 ResourceManager
浏览器中输入:http://master02:8088