环境说明
192.168.100.101 node01
192.168.100.102 node02
192.168.100.103 node03
192.168.100.104 node04
四台Vmware Workstatuin中搭建的centos6.9主机,hadoop版本为2.6.0
前置准备说明
准备台新的节点node04,配置好ssh免密登录,JDK环境,防火墙配置,SELINUX关闭,将Hadoop文件拷贝到node04节点上
服役新数据节点
①创建dfs.hosts文件,添加节点(包含新服役的节点),并修改hdfs-site.xml
[root@node01 hadoop]# cat dfs.hosts
node01
node02
node03
node04
<property>
<name>dfs.hosts</name>
<value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts</value>
</property>
②namenode刷新并更新resourceManager节点
hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes
③slaves文件新节点
[root@node01 hadoop]# cat slaves
node01
node02
node03
node04
④新节点单独启动
sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start nodemanager
⑤负载均衡
sbin/start-balancer.sh
文章评论