首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Hadoop集群机器的hosts文件配置

Hadoop集群机器的hosts文件配置

作者头像
星哥玩云
发布2022-07-01 14:18:33
发布2022-07-01 14:18:33
2.5K0
举报
文章被收录于专栏:开源部署开源部署

Hosts文件配置,想必只要玩过Linux的人,都会配置,这个文件存在于/etc/hosts里,修改每个文件之前,大家记得养成一个好的习惯,做一个备份:

 1:cd /etc  2: cp hosts hosts0319  3: vi hosts

在这个文件里,把所有对应的Hadoop集群服务器,对应的IP,Hostname都增加进去。我自己测试用的虚拟机的Host文件如下:  127.0.0.1  localhost.localdomain  localhost  10.16.36.230    HadoopSrv01  10.16.36.231    HadoopSrv02  10.16.36.232    HadoopSrv03 当然在做以上配置之前,大家需要安装好服务器服务器可以有三种选择:  1: 实体机,直接安装Linux.  2:  性能好的一台服务器上面,通过安装VM, 搭建虚拟机。  3:在一台性能一般的机器上通过搭建伪分布式来模拟测试。 具体硬件选型这块,回头再跟大家一起分享一下。 建议先搭建三个节点,每个节点有可能的话,内存配置到1-4G,硬盘100-500G,1颗2core的CPU,没有条件的话,  1G 内存,20G硬盘,1颗1核CPU 也可以,自己学习的环境 ,都无所谓。 另外还有一个很重要的步骤就是: 1: 一定要关闭防火墙。  2: Disabled Selinux.  以上两个操作,如果大家也不熟悉的话,请找度娘。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档