Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何在集群里服役新节点、退役旧节点(DataNode)

如何在集群里服役新节点、退役旧节点(DataNode)

作者头像
孙晨c
发布于 2020-07-14 11:34:11
发布于 2020-07-14 11:34:11
8450
举报
文章被收录于专栏:无题~无题~

准备好新的数据节点(DataNode)

①准备机器,配置好JDK、hadoop的环境变量,在hdfs-site.xmlyarn-site.xml文件中分别配置NameNodeResourceManager所在主机名 ②待服役成功后,启动datanodenodemanager进程即可 ③服役了新的DN节点后,可以执行再平衡的命令,这个命令可以将集群中块进行重新平衡分配,实现负载均衡./start-balancer.sh

方法一:白名单

  • 白名单之外的机器,无法进入集群
  • 编写一个文件,添加要服役的主机名
  • 通过hdfs-site.xml中的dfs.hosts配置,value即白名单文件的路径位置
  • 可以使用 hdfs dfsadmin -refreshNodes刷新配置,读取此配置信息!

方法二:黑名单

  • 黑名单里的机器,无法进入集群
  • 编写一个文件,添加要退役的主机名
  • 通过hdfs-site.xml中的dfs.hosts.exclude配置,value即黑名单文件的路径位置
  • 黑名单中的机器在最后一次启动时,会将当前机器的块移动到其他节点!
  • 注意:如果当前集群中在线的DN节点不满足某些文件的副本数要求,当前退役节点是无法退役完成!
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-07-12 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
快速学习-DataNode
1)一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。 2)DataNode启动后向NameNode注册,通过后,周期性(1小时)的向NameNode上报所有的块信息。 3)心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。 4)集群运行中可以安全加入和退出一些机器。
cwl_java
2020/02/19
6450
HDFS服役新数据节点与退役旧数据节点
随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。
用户4870038
2021/02/05
7510
HDFS服役新数据节点与退役旧数据节点
HDFS-集群扩容及缩容
白名单:在白名单的主机IP地址可以访问集群,对集群进行数据的存储。不在白名单的主机可以访问集群,但是不会在主机上存储数据 企业中:配置白名单,可以尽量防止黑客恶意访问攻击。
用户4283147
2022/10/27
1.1K0
HDFS-集群扩容及缩容
大数据技术之_04_Hadoop学习_02_HDFS_DataNode(面试开发重点)+HDFS 2.X新特性
思考:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯信号(0),但是存储该数据的磁盘坏了,一直显示是绿灯,是否很危险?同理DataNode节点上的数据损坏了,却没有发现,是否也很危险,那么如何解决呢?   如下是DataNode节点保证数据完整性的方法。
黑泽君
2019/03/04
6940
大数据技术之_04_Hadoop学习_02_HDFS_DataNode(面试开发重点)+HDFS 2.X新特性
HDFS新增节点与删除节点(9)
随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。因此,本篇博客小菌为大家带来的是HDFS新增节点与删除节点的内容。
大数据梦想家
2021/01/22
2.6K0
HDFS新增节点与删除节点(9)
大数据之Hadoop企业级生产调优手册(上)
每个文件块大概占用 150byte,一台服务器 128G内存为例,能存储多少文件块呢?128 * 128 * 1024 * 1024 / 150Byte ≈ 9.1亿
大数据真好玩
2021/10/12
1.5K0
大数据之Hadoop企业级生产调优手册(上)
Hadoop框架:DataNode工作机制详解
DataNode上数据块以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是数据块元数据包括长度、校验、时间戳;
知了一笑
2020/11/02
7640
Hadoop框架:DataNode工作机制详解
HDSF集群扩容
1、关闭防火墙 2、关闭selinux 3、修改主机名 4、主机名与IP的对应关系 5、SSH免密码登录 6、安装JDK
云缓缓知我意
2021/04/15
3410
大数据成长之路-- hadoop集群的部署(4)
在namenod的cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop目录下创建dfs.hosts.exclude文件,并添加需要退役的主机名称 node01执行以下命令
Maynor
2021/04/09
5010
hadoop学习随笔-入门阶段
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-22uhcfxh-1617677655640)(D:\Code_Study\博客笔记\Hadoop学习笔记.assets\1604300154815.png)]
用户8483969
2021/04/09
5260
必须掌握的HDFS相关问题
安全模式是Namenode的一种状态(Namenode主要有active/standby/safemode三种模式)。
大数据学习与分享
2020/07/26
1K0
【史上最全】Hadoop 核心 - HDFS 分布式文件系统详解(上万字建议收藏)
Hadoop 分布式系统框架中,首要的基础功能就是文件系统,在 Hadoop 中使用 FileSystem 这个抽象类来表示我们的文件系统,这个抽象类下面有很多子实现类,究竟使用哪一种,需要看我们具体的实现类,在我们实际工作中,用到的最多的就是HDFS(分布式文件系统)以及LocalFileSystem(本地文件系统)了。
五分钟学大数据
2021/02/08
2.3K0
【史上最全】Hadoop 核心 - HDFS 分布式文件系统详解(上万字建议收藏)
大数据成长之路-- hadoop集群的部署(3)
第六步:node04服务器关机重启并生成公钥与私钥 node04执行以下命令关机重启
Maynor
2021/04/09
3490
HDFS集群缩容案例: Decommission DataNode
在HDFS集群运维过程中,常会碰到因为实际业务增长低于集群创建时的预估规模;集群数据迁出,数据节点冗余较多;费用控制等原因,需要对集群进行缩容操作。Decommission DataNode是该过程中关键的一步,就是把DataNode从集群中移除掉。那问题来了,HDFS在设计时就把诸如机器故障考虑进去了,能否直接把某台运行Datanode的机器关掉然后拔走呢?理论上可行的,不过在实际的集群中,如果某份数据只有一份副本而且它就在这个机器上,那么直接关掉并拔走机器就会造成数据丢失。本文将介绍如何Decommission DataNode以及可能会遇到Decommission超时案例及其解决方案。
EMR小助手
2020/10/23
5.9K0
Hadoop动态添加删除节点datanode及恢复
本文略去jdk安装,请将datanode的jdk安装路径与/etc/Hadoop/hadoop-evn.sh中的java_home保持一致,版本hadoop2.7.5
星哥玩云
2022/07/12
8720
[喵咪大数据]Hadoop节点添加下线和磁盘扩容操作
Hadoop绝非一个简单程序,集群模式下更是如此,所有的数据都存储在Hadoop中如果操作不当会存在丢失数据的风险,那么怎么在安全的情况,扩容下线维护或者磁盘满了怎么增加空间,就是今天的主要内容了. 附上: Hadoop的官网:hadoop.apache.org 喵了个咪的博客:w-blog.cn 1.增加节点 当磁盘满了或节点不够处理速度慢了都需要对节点或者通过增加节点的方式进行磁盘扩容,这个时候就需要用到Hadoop扩容机制了 通过如下命令可以查看各节点情况磁盘容量等 > hadoop dfsadm
喵了个咪233
2018/03/02
2.2K0
[喵咪大数据]Hadoop节点添加下线和磁盘扩容操作
hadoop-2:深入探索hadoop3.3.1集群模式下的各个组件
https://cwiki.apache.org/confluence/display/HADOOP/Hadoop+Java+Versions
千里行走
2021/08/12
1.8K0
hadoop-2:深入探索hadoop3.3.1集群模式下的各个组件
hdfs报错 'There are 10 missing blocks...'
今天本要部署spark on yarn,因为要在hdfs创建一些共享文件,于是到hdfs web UI去看了一下,结果发现下面的错误,顺手处理一下。
阿dai学长
2020/03/13
3.6K0
HDFS经典简答题(实习生必看!)
前一段时间,小菌陆续分享了HDFS系列1-12的博客,总算是要完结了。于是小菌打算再出一期关于HDFS的经典面试题,其中的内容大多都出自于在前面分享的博客中,感兴趣的小伙伴们可以自行浏览,链接小菌放到文末了哦~
大数据梦想家
2021/01/22
7070
HDFS经典简答题(实习生必看!)
HDFS shell 快查
HDFS设计的主要目的是对海量数据进行处理,也就是说在其上能够储存很大量文件,HDFS提供多种的访问的策略,首先我们来认识其通过shell接口的访问方式。
Tim在路上
2020/08/05
4880
相关推荐
快速学习-DataNode
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档