前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >在VMware中安装CentOS7(超详细的图文教程)

在VMware中安装CentOS7(超详细的图文教程)

作者头像
郑郑SunUp
修改于 2025-01-01 06:43:53
修改于 2025-01-01 06:43:53
2K0
举报
文章被收录于专栏:LinuxLinux

1、CentOS7的下载 

官网下载地址:Download

进入CentOS下载官网,找到64位的CentOS7版本。

选择标准的CentOS7映像下载。

下载之后会得到一个ISO文件

2、CentOS7的配置 

1、打开“VMware Workstation“软件,选择”创建新的虚拟机“。

2、选择“典型”选项,然后下一步。

3、选择“稍后安装操作系统”,点击下一步。

4、客户机操作选择“Linux”,版本选择“CentOS 7 64位”,点击下一步。

5、输入“虚拟机名称”,选择虚拟机文件保存的位置,点击下一步。

6、最大磁盘默认20G大小即可,然后选择“将虚拟机磁盘存储为单个文件”,下一步。

7、点击”自定义硬件配置“。

8、选中”新CD/DVD“,选择”使用ISO映像文件“,然后设置CentOS7的ISO映像路径,点击关闭。

网络适配器默认NAT就好。

9、点击完成,如下。

接下来我们安装CentOS7。

3、CentOS7的安装

1、选中刚刚配置的CentOS7,然后点击“开启此虚拟机”。

2、虚拟机启动之后会出现如下界面(白色表示选中),默认选中的是Test this media & install CentOS  7。

我们将鼠标移入到虚拟机中,并按下键盘中的“↑”键,选择Install CentOS 7,最后按下“Enter 键”。

     界面说明:

     Install CentOS 7                                          安装CentOS 7

     Test this media & install CentOS  7            测试安装文件并安装CentOS  7

     Troubleshooting                                          修复故障

注意:  在虚拟机中的操作,鼠标必须要移入到虚拟机中,否则虚拟机感应不到,无法对其进行操作。

             鼠标移动到虚拟机内部单击或者按下Ctrl + G,鼠标即可移入到虚拟机中。

             按下Ctrl + Alt,鼠标即可移出虚拟机。

3、按下Enter进行安装。

4、等待系统加载完成。

5、选择使用哪种语言,推荐使用英文。但如果是第一次安装,建议先安装中文版的熟悉一下,之后再选择英文的进行实践,这里就介绍中文的,下滑至底部选择中文。

6、【本地化】只配置日期和时间,键盘和语言支持没有特殊情况默认就好。

7、中国范围内都选择为上海(因为只有上海可选),并选择为24小时制,设置完成后单击完成按钮

8、【软件】中只配置软件选择,安装源系统会自动识别,所以不用管。

9、然后我们选择安装的系统是否含有界面,界面一般对于我们来说用处不大,而且CentOS的界面不好操作,所以这里选择最小安装。

10、【系统】中只配置安装位置,指的是系统如何分区,其它的都默认就好。

11、对分区不清楚的就选择自动配置分区,这里演示我要配置分区。

12、手动分区我们要选择标准分区,然后点击下面的“+”添加分区。

我们分别创建三个分区:/boot区、swap交换分区、根分区/

13、添加 /boot分区,用来放启动文件,大小300MB足矣,然后点击“添加挂载点”。

14、添加 swap分区,这个是交换分区,一般情况是物理内存的2倍大小,用于物理内存不足时使用,可能造成系统不稳定,

       所以看情况,可以设置小一点,甚至设置为0MB,这里我设置为512MB,然后点击”添加挂载点“。

15、增加根分区,表示所有空间大小,这里不填写大小,即默认剩余的空间都给根分区,然后点击”添加挂载点“。

16、点击”完成“。

17、点击”接受更改“。

18、回到界面,点击“开始安装“。

19、接下来配置用户设置。

(1)、设置管理员ROOT密码,这是最高权限root用户的密码(默认账号为root,密码为现在要设置的)。

            在实际中root密码越复杂越好,因为这里只是演示,所以密码就没有那么复杂了。

            提示:这个密码非常重要,请务必牢记!!!

(2)创建用户,这里就是普通的用户,权限比较低,这一步我们可以省略。

20、用户设置好了之后,等待CentOS安装完成,,然后点击“完成配置”。

21、等待配置全部完成后“点击重启”。

22、CentOS的启动之后的界面如下。

23、下面我们来登录CentOS,使用默认账号为root,密码为 你在前面安装时设置的root密码

注意:在输入密码时,linux为了安全起见,是看不到你输入的密码。同时,如果是使用的是键盘右边的数字键盘输入密码的话,建议查看一下num lock键是否开启。

24、使用普通用户登录,普通用户的权限较低,很多地方不能操作,所以使用较少。

至此,CentOS7的安装全部完成了。

说明:CentOS 7默认安装好之后是没有自动开启网络连接的!所以下面我们还要配置一下CentOS7的网络。

4、CentOS7的网络配置

因为前面在设置CentOS7的网络适配器的时候,设置是NAT模式。

所以这里有两种方法,一种是自动获取IP,另一种是固定获取IP

  4.1、自动获取IP  

①、首先要确保的是CentOS为NAT模式。

②、在VMware界面(管理员方式启动)点击“编辑”里面的“虚拟网络编辑器”,然后勾选DHCP服务将IP地址分配给虚拟机,并设置子网IP(默认就好)。

③、点击NAT模式旁边的“NAT设置”,然后修改与子网IP同网段下的网关IP,就是前三位必须相同,

       即192.168.30要相同,最后一位数不相同即可(其实已经自动设置好了,默认),最后点击“确认”保存设置。

④、然后启动虚拟机,进入网络配置文件目录:cd /etc/sysconfig/network-scripts/,并且用 ls 命令查看是否有ifcfg-xxx名称的配置文件(ifcfg-lo除外),如果没有则说明网卡没有被识别,这种只能重装或者换个CentOS的版本。

⑤、编辑ifcfg-ens33文件:vi ifcfg-ens33。按 i 进入insert编辑模式,

       将BOOTPROTO设为dhcp,将ONBOOT设为yes,

       按下Esc进入命令模式输入:wq保存并退出。

⑥、配置完成之后输入:service network restart,重启网卡让网卡设置生效,之后就可以上网了。

⑦、输入ip addr检查一下动态分配的IP,可以发现分配的动态IP为192.168.30.128。

⑧、最后验证是否可以访问外网。

发现是可以访问外网的。自动获取IP至此就介绍完了,下面介绍另一种方式。

4.2、固定获取IP

①、点击“编辑”里面的“虚拟网络编辑器”,取消勾选DHCP服务将IP地址分配给虚拟机。

②、启动虚拟机,进入网络配置文件目录:cd /etc/sysconfig/network-scripts/,然后编辑ifcfg-ens33文件:vi ifcfg-ens33。按shift+i进入insert编辑模式,

 修改以下内容:

  • BOOTPROTO=static  启用静态IP地址
  • ONBOOT=yes      开启自动启用网络连接

   添加以下内容:

  • IPADDR=192.168.30.100     设置IP地址
  • NETMASK=255.255.255.0   子网掩码
  • GATEWAY=192.168.30.2   设置网关

   注意:IPADDR不能和子网IP冲突(最后一位只要在0~255范围内随便取一个数字,这里选择100),GATEWAY即”NAT设置“里面的网关IP。

   最后按下Esc进入命令模式输入:wq保存并退出。

修改和添加内容后如下图:

③、输入service network restart 重启网卡让网卡设置生效。

④、输入ip addr检查一下IP。

⑤、验证是否可以访问外网:ping www.baidu.com。

如果ping www.baidu.com不通,那么再测试一下百度的ip地址14.215.177.38能否ping通,如果ip能通而域名不通则说明DNS解析有误,需要设置DNS。

⑥、设置DNS(有两种方式)。

注意:DNS服务器可以只配一个,也可以配置多个,下面我用的是两个免费的DNS服务器,查看IP地址,测试联网。

----第一种是在 ifcfg-ens33 文件的后面进行添加DNS1=xxx.xxx.xxx.xxx。

注意改完后重启网卡才能生效。

----第二种方式是改vi /etc/resolv.conf或者直接echo -e "nameserver 114.114.114.114\nnameserver 223.5.5.5" >>/etc/resolv.conf。(\n是换行的意思)

使用vi命令添加的时候要注意格式:

  • nameserver xxx1.xxx1.xxx1.xxx1
  • nameserver xxx2.xxx2.xxx2.xxx2

使用echo命令则直接运行就可以了。

两种方式完成后的效果是一样的,如下图:

常用的免费DNS地址:

  • 国内移动、电信和联通通用的DNS:114.114.114.114。
  • 阿里:首选:223.5.5.5  备用:223.6.6.6
  • 百度 :180.76.76.76
  • 腾讯:首选:119.29.29.29,备用:119.28.28.28
  • 谷歌  8.8.8.8

详细可以参考:分享目前可用的免费公共DNS服务器IP地址大全(2020年04月23日更新) - 小小的一世

网络配置完成我们就可以使用远程工具连接配置的IP访问该CentOS7服务器了,下面来介绍一下Xshell工具。

5、XShell连接CentOS7

....................

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Transformers 4.37 中文文档(二十四)
BigBird 模型是由 Zaheer, Manzil 和 Guruganesh, Guru 以及 Dubey, Kumar Avinava 和 Ainslie, Joshua 和 Alberti, Chris 和 Ontanon, Santiago 和 Pham, Philip 和 Ravula, Anirudh 和 Wang, Qifan 和 Yang, Li 等人在Big Bird: Transformers for Longer Sequences中提出的。BigBird 是一种基于稀疏注意力的 Transformer,它将 Transformer 模型(如 BERT)扩展到更长的序列。除了稀疏注意力,BigBird 还将全局注意力以及随机注意力应用于输入序列。从理论上讲,已经证明应用稀疏、全局和随机注意力可以逼近全注意力,同时对于更长的序列来说在计算上更加高效。由于具有处理更长上下文的能力,BigBird 在各种长文档 NLP 任务上表现出比 BERT 或 RoBERTa 更好的性能,如问答和摘要。
ApacheCN_飞龙
2024/06/26
1600
Transformers 4.37 中文文档(五十九)
SwitchTransformers 模型是由 William Fedus、Barret Zoph 和 Noam Shazeer 在Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity中提出的。
ApacheCN_飞龙
2024/06/26
7000
Transformers 4.37 中文文档(四十二)
M2M100 模型是由 Angela Fan、Shruti Bhosale、Holger Schwenk、Zhiyi Ma、Ahmed El-Kishky、Siddharth Goyal、Mandeep Baines、Onur Celebi、Guillaume Wenzek、Vishrav Chaudhary、Naman Goyal、Tom Birch、Vitaliy Liptchinsky、Sergey Edunov、Edouard Grave、Michael Auli、Armand Joulin 在 Beyond English-Centric Multilingual Machine Translation 中提出的。
ApacheCN_飞龙
2024/06/26
3950
Transformers 4.37 中文文档(四十二)
Transformers 4.37 中文文档(二十一)
Bart 模型是由 Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov 和 Luke Zettlemoyer 在 2019 年 10 月 29 日提出的,题为 BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension。
ApacheCN_飞龙
2024/06/26
2280
Transformers 4.37 中文文档(六十一)
X-MOD 模型是由 Jonas Pfeiffer、Naman Goyal、Xi Lin、Xian Li、James Cross、Sebastian Riedel 和 Mikel Artetxe 在Lifting the Curse of Multilinguality by Pre-training Modular Transformers中提出的。X-MOD 扩展了多语言掩码语言模型,如 XLM-R,在预训练期间包含特定于语言的模块化组件(语言适配器)。在微调中,每个 Transformer 层中的语言适配器被冻结。
ApacheCN_飞龙
2024/06/26
3760
Transformers 4.37 中文文档(五十四)
REALM 模型是由 Kelvin Guu、Kenton Lee、Zora Tung、Panupong Pasupat 和 Ming-Wei Chang 在REALM: Retrieval-Augmented Language Model Pre-Training中提出的。这是一个检索增强语言模型,首先从文本知识语料库中检索文档,然后利用检索到的文档来处理问答任务。
ApacheCN_飞龙
2024/06/26
2960
Transformers 4.37 中文文档(六十)
T5v1.1 是由 Colin Raffel 等人在google-research/text-to-text-transfer-transformer存储库中发布的。这是原始 T5 模型的改进版本。这个模型是由patrickvonplaten贡献的。原始代码可以在这里找到。
ApacheCN_飞龙
2024/06/26
3670
Transformers 4.37 中文文档(三十九)
Jukebox 模型在 Jukebox: A generative model for music 中由 Prafulla Dhariwal, Heewoo Jun, Christine Payne, Jong Wook Kim, Alec Radford, Ilya Sutskever 提出。它引入了一个生成音乐模型,可以生成可以根据艺术家、流派和歌词进行条件化的一分钟长样本。
ApacheCN_飞龙
2024/06/26
1770
Transformers 4.37 中文文档(六十二)
**免责声明:**如果您看到异常情况,请提交GitHub 问题并指定@patrickvonplaten
ApacheCN_飞龙
2024/06/26
3140
Transformers 4.37 中文文档(二十五)
请注意,BlenderbotSmallModel 和 BlenderbotSmallForConditionalGeneration 仅与检查点facebook/blenderbot-90M结合使用。较大的 Blenderbot 检查点应该与 BlenderbotModel 和 BlenderbotForConditionalGeneration 一起使用
ApacheCN_飞龙
2024/06/26
2090
Transformers 4.37 中文文档(十六)
所有模型的输出都是 ModelOutput 的子类实例。这些是包含模型返回的所有信息的数据结构,但也可以用作元组或字典。
ApacheCN_飞龙
2024/06/26
5950
Transformers 4.37 中文文档(四十一)
LongT5 模型是由 Mandy Guo、Joshua Ainslie、David Uthus、Santiago Ontanon、Jianmo Ni、Yun-Hsuan Sung 和 Yinfei Yang 在LongT5: Efficient Text-To-Text Transformer for Long Sequences中提出的。它是在文本到文本去噪生成设置中预训练的编码器-解码器变压器。LongT5 模型是 T5 模型的扩展,它可以使用两种不同的高效注意力机制之一——(1)局部注意力,或(2)瞬时全局注意力。
ApacheCN_飞龙
2024/06/26
2090
Transformers 4.37 中文文档(八十七)
GroupViT 模型是由 Jiarui Xu、Shalini De Mello、Sifei Liu、Wonmin Byeon、Thomas Breuel、Jan Kautz、Xiaolong Wang 在GroupViT: Semantic Segmentation Emerges from Text Supervision中提出的。受 CLIP 启发,GroupViT 是一种可以对任何给定词汇类别执行零调校语义分割的视觉语言模型。
ApacheCN_飞龙
2024/06/26
3270
Transformers 4.37 中文文档(八十七)
Transformers 4.37 中文文档(五十)
OPT 模型是由 Meta AI 在Open Pre-trained Transformer Language Models中提出的。OPT 是一系列开源的大型因果语言模型,性能与 GPT3 相似。
ApacheCN_飞龙
2024/06/26
4520
Transformers 4.37 中文文档(五十)
Transformers 4.37 中文文档(三十二)
本页面提供了 Meta AI 基础人工智能研究团队的 Transformer 蛋白质语言模型的代码和预训练权重,提供了最先进的 ESMFold 和 ESM-2,以及之前发布的 ESM-1b 和 ESM-1v。Transformer 蛋白质语言模型是由 Alexander Rives、Joshua Meier、Tom Sercu、Siddharth Goyal、Zeming Lin、Jason Liu、Demi Guo、Myle Ott、C. Lawrence Zitnick、Jerry Ma 和 Rob Fergus 在论文Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences中引入的。该论文的第一个版本于 2019 年预印。
ApacheCN_飞龙
2024/06/26
7170
Transformers 4.37 中文文档(三十二)
Transformers 4.37 中文文档(五十三)
Qwen2 是 Qwen 团队推出的大型语言模型新系列。之前,我们发布了 Qwen 系列,包括 Qwen-72B、Qwen-1.8B、Qwen-VL、Qwen-Audio 等。
ApacheCN_飞龙
2024/06/26
1.7K0
Transformers 4.37 中文文档(七十七)
SeamlessM4T-v2 模型是由 Meta AI 的 Seamless Communication 团队在Seamless: Multilingual Expressive and Streaming Speech Translation中提出的。
ApacheCN_飞龙
2024/06/26
3300
Transformers 4.37 中文文档(五十七)
RoCBert 模型是由 HuiSu、WeiweiShi、XiaoyuShen、XiaoZhou、TuoJi、JiaruiFang、JieZhou 在 RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining 中提出的。它是一个经过预训练的中文语言模型,在各种形式的对抗攻击下具有鲁棒性。
ApacheCN_飞龙
2024/06/26
3030
Transformers 4.37 中文文档(三十四)
FNet 模型由 James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon 在 FNet: Mixing Tokens with Fourier Transforms 中提出。该模型用傅立叶变换替换了 BERT 模型中的自注意力层,仅返回变换的实部。该模型比 BERT 模型快得多,因为它具有更少的参数并且更节省内存。该模型在 GLUE 基准测试中达到了约 92-97% 的准确率,并且比 BERT 模型训练速度更快。论文的摘要如下:
ApacheCN_飞龙
2024/06/26
3880
Transformers 4.37 中文文档(四十)
Hugo Touvron、Thibaut Lavril、Gautier Izacard、Xavier Martinet、Marie-Anne Lachaux、Timothée Lacroix、Baptiste Rozière、Naman Goyal、Eric Hambro、Faisal Azhar、Aurelien Rodriguez、Armand Joulin、Edouard Grave、Guillaume Lample 在LLaMA: Open and Efficient Foundation Language Models中提出了 LLaMA 模型。它是一个包含从 7B 到 65B 参数的基础语言模型的集合。
ApacheCN_飞龙
2024/06/26
6440
相关推荐
Transformers 4.37 中文文档(二十四)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档