前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >云数据中心网络虚拟化——大二层技术巡礼之控制平面多虚一

云数据中心网络虚拟化——大二层技术巡礼之控制平面多虚一

作者头像
SDNLAB
发布于 2018-04-02 09:12:01
发布于 2018-04-02 09:12:01
2.2K0
举报
文章被收录于专栏:SDNLABSDNLAB

控制平面多虚一,指的是将两台或者多台设备的资源(包括操作系统、转发实例、转发表、端口等)进行整合,对外表现为一台逻辑设备,以Cisco VSS,Huawei CSS和H3C的IRF为代表,后来Cisco又推出了vPC技术作为对VSS的升级(虽然vPC已经很难说是控制平面多虚一技术了)。其实在这些技术中,除了转发实例、转发表这些转发逻辑层面的资源以外,端口这些数据平面的资源都被连带着整合了,因此又称“虚拟机框”技术。为了方便起见,以下就称为“虚拟机框”技术了。

这类技术和堆叠技术,感觉应该本质上是一回事,不过堆叠设备必须要落在一起,要通过专门的堆叠口、堆叠线进行连接,而“虚拟机框”设备间则可以通过线卡上的端口进行以太网的连接,距离能拉的很远。

几台设备搞成一台,好处是很多的。第一,简化了运维,以前几台设备各配各的配置,复杂不说还容易出错,堆叠后管理员配一次就都OK了。第二,高可用性,每台设备里面都有引擎,一台坏了能够自动倒换,也就省去了HSRP这些麻烦事。第三点,也是最重要的是,“虚拟机框”技术在提供端口冗余的同时,能够避开STP,除了网管心头的一个大害。这类技术典型的组网场景如下图右侧所示:

1)VSS

VSS是Cisco Catalyst 6500系列交换机推出的虚拟机框技术,支持对两台6500设备以主备模式进行整合。其中主用交换机中的引擎负责这个逻辑设备的转发决策,形成转发表,而备用交换机不断地同步相关信息,不进行学习和计算。而主备用设备的线卡都是分布式的,同时进行数据的转发。VSS主要有以下技术点:

  • 控制信令VSL(Virtual Switch Link)。VSS技术通过VSL将两个机架绑定成为一个虚拟的交换系统,它依赖于控制信令VSLP的交互,以完成主备的协商以及状态的同步。同时VSL也能在主备交换机间传输普通数据流量,这时它其实就相当于虚拟设备的背板走线。当然了,为实现虚拟设备的线速转发,VSL链路应该具备足够的带宽。
  • 高可靠技术NSF/SSO。SSO (Stateful Switchover)技术是保证了主备引擎、线卡能够以最短的时间进行切换。但是即使中断时间很短,数据转发也可能出现中断,路由可能需要重新收敛。NSF(NonStop Forwarding)则解决了这一问题,实现了路由的平稳重启。
  • 跨设备链路聚合MEC(Multichassis EtherChannel)。MEC是一种二层的多路径技术,它将相连节点分别与VSS主备两台交换机间相连的两个端口聚合为Port Group,统一为一个转发端口,从而允许在不采用生成树协议的条件下,构建无环路的二层转发拓扑。在VSS拓扑结构中使用MEC,所有链路都是激活的,在提供高度可用的拓扑结构的同时,也提高了链路的利用率。
  • 双活监测机制。当VSL故障后,两台物理设备都将成为主用交换机,对上下游设备造成IP网关混乱。为了防止双活问题的发生,VSS采用以下机制进行监控:如果有跨设备链路聚合时,使用PAgP来互相检测通知;如果有富裕接口在虚拟化的两台物理设备间可以单独再拉根直连线路,通过VSLP Fast Hello专门用做监控;另外VSS还可以使用IP BFD通过互联的三层链路进行监控。监测到双活后,立刻禁用原备用交换机的端口,直到VSL链路恢复。

虽然VSS只允许两台物理设备的虚拟化,不过通过虚拟设备间的互联仍可进一步简化核心网的拓扑。如下图所示,图中汇聚层和核心层均使用了VSS技术,保证高可用性的同时形成了一个天然无环的拓扑结构。

2)CSS/IRF 2

CSS、IRF 2分别是华为、华三私有的“虚拟机框”技术。CSS的前身是iStack,iStack通过堆叠方式支持盒式设备的多虚一,而CSS支持对框式设备的多虚一。IRF 2的前身是IRF 1,IRF 1通过堆叠方式支持盒式设备的多虚一,而IRF 2同时支持盒式设备/框式设备的多虚一。CSS/IRF 2和VSS的基本原理和组网架构如出一辙,也就是换换名称而已,对比如下。

另外,相比于VSS只支持两台设备的虚拟化,CSS和IRF 2都支持1:N的主备用模式,能够提供更高的可靠性。从目前能够找到的资料来看,CSS和IRF 2最多都能支持4台框式交换机,或者9台盒式交换机的虚拟化。其实,Cisco最开始设计VSS时,也准备支持1:N模式,但是后来由于Cisco的控制平面多虚一的技术路线演化为了vPC,因此也就不了了之了。

3)vPC

Cisco在Nexus系列交换机中摒弃掉VSS,推出了 vPC( virtual Port-Channel)特性。前面说过VSS/IRF是整机级别的虚拟化, 而vPC则是接口级的虚拟化,其实就是实现了VSS中的跨设备链路聚合。因此在vPC中只需要对成员接口进行链路聚合相关的信息同步即可,不需要对整机进行状态同步。下图中其中vPC对应MEC,Peer-Link对应VSL,CFS Protocol对应VSLP ,Peer-Keepalive Link对应VSLP Fast Hello。

下面通过一个二层转发的实例来介绍vPC的工作原理,其中左图为ARP请求的泛洪过程,右图为ARP应答,假设SW1 port 11,SW2 port 21属于vPC 1,SW1 port12,SW2 port 22属于vPC 1。SW1通过port 11上收到ARP请求,之后在vpc link和port 12上进行泛洪。SW 2收到该ARP请求后,判定port 21与port 22与SW 1中的一些端口进行了vPC绑定,因此不会从这两个端口进行转发。同时SW 1通过CFS消息告诉SW 2 MAC_A接在vPC 1上。当SW 2通过port 22收到ARP应答后,查找MAC地址表,得知目的地址为MAC_A的帧应该向vPC 1的成员端口转发,于是通过port 21转发给SW 3,同时通过CFS告知SW 1 MAC_B接在vPC 2上。之后的通信得以按照学习到的信息进行转发。

对外来看,实现vPC的设备还是两台设备(就目前找到的资料来看,vPC也只支持2台设备的虚拟化),管理上还是要分开配置,两台设备的转发实例、转发表等都是独立的,STP、HSRP这些协议也还需要启用(vPC针对HSRP有一些改进)。可以说,vPC网络是单数据平面,双控制平面的。当然了,这也意味着vPC设备的引擎是双活的,就这一点来说vPC比VSS要好一些。不过,从复杂度来讲vPC没有VSS这类技术好。vPC与VSS简单对比如下。

控制平面多虚一技术发展了很多年,其技术已经较为成熟稳定,在数据中心中得到了广泛的部署。从最初的堆叠到“虚拟机框”,在一定程度上解除了地理位置的限制,但是走分布式协议来进行整机状态的同步,终究还是会对部署规模有一定的制约。虽然CSS/IRF 2都支持4台框式交换机的虚拟化,但估计也很难再往上提高了。另外,扩大部署规模还可以通过虚拟设备间的互联,不过本节提到的技术都是私有的,各家设备不能混合组网,属于技术以外隐形的约束。而近年来,隧道的数据平面虚拟化技术的发展,则为数据中心提供了几乎无限的可扩展性,“虚拟机框”的技术面临着极大的挑战。跨设备链路聚合,除了Cisco的vPC一台,Arista也有个类似的技术MLAG,其核心原理和vPC如出一辙,这里就不再赘述了。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-02-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SDNLAB 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
云数据中心网络虚拟化——大二层技术巡礼之控制平面一虚多
说完了控制平面多虚一,再来说说控制平面一虚多。我们知道,通过计算资源的一虚多技术,一台物理服务器上可以生成多个虚拟机,它们完全独立的进行工作。如果能够参照计算的一虚多,将一台网络设备的操作系统分为多个
SDNLAB
2018/04/02
1.7K0
云数据中心网络虚拟化——大二层技术巡礼之控制平面一虚多
网络设备虚拟化:VRRP、堆叠、M-LAG与去堆叠技术
数据中心(IDC)网络的虚拟化技术主要分为三类:网络虚拟化(NV)、网络设备虚拟化(NDV)和网络功能虚拟化(NFV)。
Flowlet
2022/08/18
11.3K0
网络设备虚拟化:VRRP、堆叠、M-LAG与去堆叠技术
云数据中心网络虚拟化——大二层技术巡礼之NVo3技术DC间隧道
NVo3体系框架只是要求隧道构建在IP网络上,并没有要求一定是要端到端的,因此DC间跨越Internet进行互联的一些技术也属于NVo3框架中。这类技术往往部署在汇聚层设备上,隧道起于DC边缘,终止于DC边缘。 其实DC间互联就是典型的VPN业务,早期的DC间互联就是通过传统的二层VPN来实现的,但是在向云数据中心演化中,这类技术表现出了如下的缺陷: 由于传统的二层VPN依赖于数据泛洪以确定MAC地址的可达性,“大二层”中庞大的虚拟机规模导致了大量泛洪包被发到Internet上。 STP和HSRP需要跨DC
SDNLAB
2018/04/03
1.7K0
云数据中心网络虚拟化——大二层技术巡礼之NVo3技术DC间隧道
云数据中心网络虚拟化——大二层技术巡礼之数据平面的演化
开始讲解数据平面的虚拟化前,我们首先来看一看数据中心网络典型的网络拓扑。左图3层分别为接入、汇聚和核心层,一般来说,接入层负责制定虚拟机的接入策略,汇聚层负责二层的传输,核心层作为网关负责三层的互通。
SDNLAB
2018/04/02
1.1K0
云数据中心网络虚拟化——大二层技术巡礼之数据平面的演化
云数据中心网络虚拟化——大二层技术巡礼之L2 Fabric技术传输隧道
NVo3是L2 over IP/MPLS,利用IP网络的智能传输作为大二层虚拟交换机的背板走线,其好处是利用现有的设备即可完成隧道的传输。不过同时这也带来了一定的问题——IP网络的传输路径、服务质量难以控制,而且往往需要IP网络支持组播。尽管MPLS能解决这一问题,但是其部署过于复杂,开通一个租户的实例动辄要上月的时间,已经难以跟上公有云业务的发展。从NVo3工作组形成Geneve的思路来看,是希望IP Router能够感知到隧道承载的内部L2业务的需求以便提供匹配的传输管道,不过要改造现网的设备可绝非一件
SDNLAB
2018/04/02
1.5K0
云数据中心网络虚拟化——大二层技术巡礼之L2 Fabric技术传输隧道
H3C三层交换机之IRF虚拟化技术详解及配置
一、IRF是什么? 目前,网络中主要存在两种结构的通信设备,固定盒式设备和模块框式分布式设备。固定盒式设备成本低廉,但没有高可用性支持;模块框式分布式设备具有高可用性、高性能、高端口密度的优点,但投入成本高。针对盒式设备和模块框式分布式设备的这些特点,一种结合了两种设备优点的IRF虚拟化技术应运而生。 . IRF称之为智能弹性架构,是H3C自主研发的硬件虚拟化技术,它的核心思想是将多台设备通过IRF物理端口连接在一起,进行必要的配置后,虚拟化成一台“分布式设备”。使用这种虚拟换技术可以集合多台设备的硬件资源和软件处理能力,实现多台设备的协同工作、统一管理和不间断维护(简单说,IRF技术就是“硬件虚拟化技术”,将多个硬件设备虚拟化出一台更大的硬件设备)。 二、IRF技术的优点 1、简化管理
小手冰凉
2019/11/05
2K1
网络虚拟化中的VSS技术跟Windows系统中的VSS有什么本质区别
网络虚拟化中的 ​VSS(Virtual Switch System)​​ 和 Windows 系统中的 ​Volume Shadow Copy(VSS)​​ 是两个完全不同的技术领域,尽管缩写相同,但功能、目标和应用场景截然不同。以下是它们的本质区别:
Windows技术交流
2025/02/25
1950
全融合网络虚拟化技术
服务器虚拟化技术 使CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,从而提高资源的利用率,让IT对业务的变化更具适应力。 IT系统是由网络服务器存储等诸多因素组成的,局部的创新并不会带来
SDNLAB
2018/04/03
1.4K0
全融合网络虚拟化技术
云数据中心网络虚拟化——大二层技术巡礼之初识大二层
刚接触网络的一段时间里,作者经常把数据中心和云等同在一起来看待,以为数据中心就是成群的虚拟机和各种神秘的转发设备,支撑着“按需服务”的商业模型。后来才慢慢意识到,这是两个交织在一起但完全不同的概念。数据中心是把服务器放在一起统一进行管理的技术,属于社会分工的产物。大型的公司通常自建私有的数据中心,而没有足够财力的小公司就只能租用公共数据中心的IT资源。云是数据中心一种高度进化的形态,开启了“按需租用”的商业模式,可以说是IT集约化运营的趋势催生了云计算。云计算数据中心成为了近十年来IT界的弄潮儿,对原有的计
SDNLAB
2018/04/02
1.6K0
【重识云原生】第四章云网络4.7.1节——网络虚拟化与卸载加速技术的演进简述
        近几年,软件定义网络(Software Define Network,SDN)技术的发展与成熟,使得网络虚拟化可以不再基于物理网络设备实现,大大扩展了网络虚拟化的“边界”。需要强调的是,SDN 不等于网络虚拟化,只是SDN 这种技术非常适合实现网络虚拟化。
江中散人_Jun
2022/06/27
1.4K0
【重识云原生】第四章云网络4.7.1节——网络虚拟化与卸载加速技术的演进简述
【重识云原生】第四章云网络4.5节——大二层网络
        数据中心的网络架构和技术在云计算诞生后,与数据中心的计算及存储一起都在发生着变化。起初数据中心网络分为内部与外部,数据中心外部网络指的通常是三层网络,也就是我们最开始所认知所学习的诸如:BGP、IS-IS、OSPF等三层路由协议的使用与三层网络架构的设计,怎么才能规划路由,怎么才能使得流量按照路由的规划选址最优的路径提供出去,如果说数据中心外部网络关注更多的是提升用户的体验,那么数据中心内部网络就是运维兄弟关注的重点之一,提升网络系统的效率。数据中心内部网络是云计算引入后发展非常迅速的一个领域,也是更新迭代最快的领域。最开始我们认知的数据中心网络局限在同一个物理数据中心内部,随着云计算的发展,数据中心网络逐渐进化为同地域多物理数据中心的网络被抽象成一个虚拟化的内部网络,到现在不同地域乃至全球范围的物理数据中心网络都可以互相二层打通的云化网络。
江中散人_Jun
2022/06/27
3K0
【重识云原生】第四章云网络4.5节——大二层网络
云数据中心网络虚拟化——网络虚拟化的传统技术之VLAN
VLAN(Virtual LAN,虚拟局域网),是一个局域网的虚拟化技术,官方文件参考IEEE 802.1q。对于做网络的人来说,谈起它简直是如数家珍。VLAN可以说是网络虚拟化领域的老祖宗,可别看这个技术年头已经很久了,它的活力可不减当年——做VPN有QinQ,做策略有PVLAN,做融合有FCOE,做VPC有AWS的EC2等等,可以说由VLAN衍生出来的标签技术的应用在数通领域历久弥新,而基本上所有的以太网技术在设计或优化的时候都无法忽略VLAN的存在。这里纠正一个初学VLAN常见的概念性错误——虽然以太
SDNLAB
2018/04/02
1.8K0
云数据中心网络虚拟化——网络虚拟化的传统技术之VLAN
云数据中心网络虚拟化——大二层技术巡礼之NVo3技术端到端隧道
NVo3(Network Virtualization over Layer 3),是IETF 2014年十月份提出的数据中心虚拟化技术框架。NVo3基于IP/MPLS作为传输网,在其上通过隧道连接的方式,构建大规模的二层租户网络。NVo3的技术模型如下所示,PE设备称为NVE(Network Virtualization Element),VN Context作为Tag标识租户网络,P设备即为普通的IP/MPLS路由器。NVo3在设计之初,VxLAN与SDN的联合部署已经成为了数据中心的大趋势,因此NVo
SDNLAB
2018/04/02
2.4K0
云数据中心网络虚拟化——大二层技术巡礼之NVo3技术端到端隧道
云计算时代,数据中心架构三层到大二层的演变
为了满足自身的业务需求,保证数据的稳定和可靠。无论是互联网还是传统行业,都会有自己或大或小的数据中心,甚至如阿里云和亚马逊这种专门以出租计算资源的云计算公司,更是在全世界各地建立了不等的数据中心。
Linux云计算网络
2019/07/02
3.7K0
云计算时代,数据中心架构三层到大二层的演变
我眼中的网络设备虚拟化
虚拟化是利用技术手段做到“一虚多、多虚一”,从而达到提升设备资源利用率以及加强系统可靠性和可用性的重要技术手段。专门做虚拟化的ICT厂商VMware、Oracle、citrix,国内还有新华三、深信服。这些厂商主要是针对计算、存储的虚拟化产品,今天我们的议题是网络设备虚拟化。
ICT售前新说
2019/08/12
2.3K0
【连载-2】数据中心网络虚拟化 主流平台产品介绍
为了对数据中心网络虚拟化有个初步的认识,本文将对当前比较主流的几款商业平台进行介绍,包括VMware公司的网络虚拟化技术,IBM公司的Dove及开源的OpenDove平台, NEC公司的virtual-network-platform和VTN平台,以及Cisco公司的Nexus虚拟化平台。 1.Vmware公司的网络虚拟化技术 VMware在虚拟化领域的领导地位使得我们必须首先介绍一下他们的网络虚拟化技术NSX。然而需要说明的是,网络上有关NSX的技术资料(广告除外)并不多,因此在很多技术细节上我们也无能为
SDNLAB
2018/04/02
1.6K0
【连载-2】数据中心网络虚拟化 主流平台产品介绍
实战:企业网络系统规划与设计与事项
某大中型企业。有多个部门,财务部、人事部、销售部、工程部。同部门之间采用二层交换网络相连;不同部门之间采用VLAN路由方式互访。
释然IT杂谈
2020/05/11
4.7K0
数据中心组网大二层网络了解
为了实现业务的灵活变更,虚拟机动态迁移已经成为了一个常态性的业务。虚拟机动态迁移是指在保证虚拟机正常运行的同时,将虚拟机从一个物理服务器移动到另一个物理服务器的过程,该过程对于最终用户来说是无感知的,使得管理员在不影响用户正常使用的情况下灵活调配服务器资源或者对物理服务器进行维修和升级。虚拟机动态迁移的关键是要保证在迁移时,虚拟机上的业务不会中断,这就要求虚拟机的IP地址、MAC地址等参数保持不变,所以虚拟机的迁移只能在同一个二层域内进行,而不能跨二层域迁移,如图2-23所示。
heidsoft
2022/01/17
2.2K0
数据中心组网大二层网络了解
Neutron 理解 (1): Neutron 所实现的网络虚拟化
特别说明:本文于2015年基于OpenStack M版本发表于本人博客,现转发到公众号。因为时间关系,本文部分内容可能已过时甚至不正确,请注意。
SammyLiu
2019/06/28
3.6K0
Neutron 理解 (1): Neutron 所实现的网络虚拟化
SDN在云数据中心的应用——架构篇
前言 SDN概念一直如火如荼,若是要谈到概念落地及大规模应用,一定离不开SDN在云计算数据中心的实践应用。云数据中心对网络提出了灵活、按需、动态和隔离的需求,SDN的集中控制、控制与转发分离、应用可编程这三个特点正巧能够较好的匹配以上需求。SDN,可以看为是软件开发和网络技术的混合领域。本文站在云数据中心网络维护工程师的角度,给大家分享SDN与云数据中心结合的前世今生。 一、云数据中心为什么要引入SDN 云计算近十年来受到互联网、IT和电信业共同的关注,云计算技术的快速发展和广泛应用使
SDNLAB
2018/03/29
2.4K0
推荐阅读
相关推荐
云数据中心网络虚拟化——大二层技术巡礼之控制平面一虚多
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档