在hadoop集群中服役新节点

环境说明

192.168.100.101 node01
192.168.100.102 node02
192.168.100.103 node03
192.168.100.104 node04

四台Vmware Workstatuin中搭建的centos6.9主机,hadoop版本为2.6.0

前置准备说明

准备台新的节点node04,配置好ssh免密登录,JDK环境,防火墙配置,SELINUX关闭,将Hadoop文件拷贝到node04节点上

服役新数据节点

①创建dfs.hosts文件,添加节点(包含新服役的节点),并修改hdfs-site.xml

[root@node01 hadoop]# cat dfs.hosts
node01
node02
node03
node04
<property>
<name>dfs.hosts</name>
<value>/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts</value>
</property>

②namenode刷新并更新resourceManager节点

hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes

③slaves文件新节点

[root@node01 hadoop]# cat slaves 
node01
node02
node03
node04

④新节点单独启动

sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start nodemanager

⑤负载均衡

sbin/start-balancer.sh

已发布

分类

, , , ,

作者:

标签

评论

《“在hadoop集群中服役新节点”》 有 2 条评论

  1. wangzhenyu 的头像
    wangzhenyu

    写的啥

  2. wangzhenyu 的头像
    wangzhenyu

    写的啥

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注