51学通信论坛2017新版

标题: SDN Overlay技术白皮书(下) [打印本页]

作者: admin    时间: 2017-9-17 14:09
标题: SDN Overlay技术白皮书(下)
5 SDN Overlay组网方案设计


Overlay控制平面架构可以有多种实现方案,例如网络设备之间通过协议分布式交互的方式。而基于VCF控制器的集中式控制的SDN Overlay实现方案,以其易于与计算功能整合的优势,能够更好地使网络与业务目标保持一致,实现Overlay业务全流程的动态部署,在业界逐步成为主流的Overlay部署方案。
5.1 SDN Overlay组网模型


[attach]1132[/attach]

图14 SDNOverlay组网模型


如上图所示,H3C的SDN Overlay组网同时支持网络Overlay、主机Overlay和混合Overlay三种组网模型:

三种Overlay商用模型都通过VCF控制器集中控制,实现业务流程的下发和处理,应该说这三种Overlay模型都有各自的应用场景。用户可根据自己的需求从上述三种Overlay模型和VLAN VPC方案中选择最适合自己的模型。
5.1.1 网络Overlay
1. 定位
网络Overlay组网里的服务器可以是多形态,也无需支持Overlay功能,所以网络Overlay的定位主要是网络高性能、与Hypervisor平台无关的Overlay方案。
2. 面向客户 网络Overlay主要面向对性能敏感而又对虚拟化平台无特别倾向的客户群。该类客户群的网络管理团队和服务器管理团队的界限一般比较明显。
5.1.2 主机Overlay
1. 定位
主机Overlay不能接入非虚拟化服务器,所以主机Overlay主要定位是配合VMware、KVM等主流Hypervisor平台的Overlay方案。
2. 面向客户 主机Overlay主要面向已经选择了虚拟化平台并且希望对物理网络资源进行利旧的客户。
5.1.3 混合Overlay
1. 定位
混合Overlay组网灵活,既可以支持虚拟化的服务器,也可以支持利旧的未虚拟化物理服务器,以及必须使用物理服务器提升性能的数据库等业务,所以混合Overlay的主要定位是Overlay整体解决方案,它可以为客户提供自主化、多样化的选择。
2. 面向客户 混合Overlay主要面向愿意既要保持虚拟化的灵活性,又需要兼顾对于高性能业务的需求,或者充分利旧服务器的要求,满足客户从传统数据中心向基于SDN的数据中心平滑演进的需求。
5.2 H3C SDN Overlay典型组网


5.2.1 网络Overlay
网络Overlay的隧道封装在物理交换机完成。这种Overlay的优势在于物理网络设备的转发性能比较高,可以支持非虚拟化的物理服务器之间的组网互通。
H3C提供的网络Overlay组网方式,支持以下转发模式:

[attach]1133[/attach]

图15网络Overlay


在图15的组网中,VCFC集群实现对整个VXLAN网络的总体控制,以及对VNF的生命周期管理和服务链编排;VCFC可以同Openstack、VMware Vcenter、H3Cloud OS等其他第三方云平台,通过插件方式或RESTAPI方式进行对接。
物理交换机125X/S98充当VXLAN IP GW,提供Overlay网关功能,实现VXLAN网络和经典网络之间的互通,支持Overlay报文的封装与解封装,并根据内层报文的IP头部进行三层转发,支持跨Overlay网络之间的转发,支持Overlay网络和传统VLAN之间的互通以及Overlay网络与外部网络的互通;H3C S6800充当VTEP,支持Overlay报文的封装与解封装,实现虚拟机接入到VXLAN网络中。
Service安全设备属于可选项,包括vFW、vLB、M9000、L5000等设备。东西向支持基于vFW、vLB的服务链;南北向可以由125X串联M9000实现NAT、FW等服务,125X旁挂L5000提供LB服务,由VCFC实现引流。

[attach]1134[/attach]

图16 无状态IP网关


如图16所示,在网络Overlay的组网模型中,125X/S98作为Overlay网关功能,考虑到网关的扩容功能,可以采用无状态IP网关方案:

无状态网关的业务流向如下:

网络Overlay组网方案有以下优点:

5.2.2 主机Overlay
主机Overlay将虚拟设备作为Overlay网络的边缘设备和网关设备,Overlay功能纯粹由服务器来实现。主机Overlay方案适用于服务器虚拟化的场景,支持VMware、KVM、CAS等主流Hypervisor平台。主机Overlay的网关和服务节点都可以由服务器承担,成本较低。
H3C vSwitch(即S1020V,又称为OVS)以标准的进程和内核态模块方式直接运行在Hypervisor主机上,这也是各开源或者商用虚拟化平台向合作伙伴开放的标准软件部署方式,性能和兼容性可以达到最佳。
S1020V上除了实现转发功能,还集成了状态防火墙功能,防火墙功能可以支持四层协议,如TCP/UDP/IP/ICMP等协议。可以基于源IP、目的IP、协议类型(如TCP)、源端口、目的端口的五元组下发规则,可以灵活决定报文是允许还是丢弃。
状态防火墙(DFW)和安全组的区别是,状态防火墙是有方向的,比如VM1和VM2之间互访,状态防火墙可以实现VM1能访问VM2,VM2不能访问VM1这样的需求。

[attach]1135[/attach]

图17 vSwitch集成状态防火墙


如图17所示,vSwitch功能按下述方式实现:

在主机Overlay情况下,H3C vSwitch既承担了VTEP(即VXLAN L2 GW)功能,也可以承担东西向流量三层网关的功能。三层网关同时亦可以由NFV、物理交换机分别承担。vSwitch功能也可以实现Overlay网络内虚机到虚机的跨网段转发。按照VXLAN三层转发实现角色的不同,可以分为以下几个方案:
(1)东西向分布式网关转发方案
如图18所示,在分布式网关情况下,采用多个vSwitch逻辑成一个分布式三层网关,东西向流量无需经过核心设备Overlay层面的转发即可实现东西向流量的跨VXLAN转发,以实现跨网段最短路径转发;南北向的流量仍然会以核心Spine设备作为网关,虚机访问外网时,vSwitch先把报文通过VXLAN网络转发到Spine设备上,Spine设备进行VXLAN解封装后再根据目的IP转发给外部网络。

[attach]1136[/attach]

图18 东西向分布式网关方案


(2)NFV设备VSR做网关方案
VSR做网关的情况下,VXLAN IP GW、VXLAN L2 GW、服务节点都由服务器来实现,如图19所示。

[attach]1137[/attach]

图19VSR做网关的主机Overlay方案


VCFC集群实现对整个VXLAN网络的总体控制,以及对VNF的生命周期管理和服务链编排;VCFC可以同Openstack、VMware Vcenter、H3Cloud OS等其他第三方云平台,通过插件方式或REST API方式进行对接。
NFV设备VSR充当VXLAN IP GW,提供Overlay网关功能,实现VXLAN网络和经典网络之间的互通,支持Overlay报文的封装与解封装,并根据内层报文的IP头部进行三层转发,支持跨Overlay网络之间的转发,支持Overlay网络和传统VLAN之间的互通以及Overlay网络与外部网络的互通;H3C S1020V充当L2 VTEP,支持Overlay报文的封装与解封装,实现虚拟机接入到VXLAN网络中,其中H3C S1020V支持运行在ESXi、KVM、H3C CAS等多种虚拟化平台上。
Service安全设备属于可选项,包括VSR、vFW、vLB等设备,实现东西向和南北向服务链服务节点的功能。
(3)物理交换机做网关方案
如图20所示,同纯软主机Overlay方案相比,软硬结合主机Overlay方案使用Spine设备做VXLAN IP GW。Spine设备可以使用125-X/98,也可以使用S10500,在使用S10500和S1020V组合的情况下可以实现更低的使用成本。Service安全设备属于可选项,包括vFW、vLB、M9000、L5000等设备。东西向支持基于vFW、vLB的服务链;南北向可以由125-X串联M9000实现NAT、FW等服务,125-X旁挂L5000提供LB服务,由VCFC通过服务链实现引流。

[attach]1138[/attach]

图20物理交换机做网关的主机Overlay方案


主机Overlay组网方案总体来说有以下优点:

5.2.3 混合Overlay
如图21所示,混合Overlay是网络Overlay和主机Overlay的混合组网,可以支持物理服务器和虚拟服务器之间的组网互通。它融合了两种Overlay方案的优点,既可以充分利用虚拟化的低成本优势,又可以发挥硬件GW的转发性能、将非虚拟化设备融入Overlay网络,它可以为客户提供自主化、多样化的选择。

[attach]1139[/attach]

图21混合Overlay


125X/S98充当VXLAN IP GW,提供Overlay网关功能,实现VXLAN网络和经典网络之间的互通,支持Overlay报文的封装与解封装,并根据内层报文的IP头部进行三层转发,支持跨Overlay网络之间的转发,支持Overlay网络和传统VLAN之间的互通以及Overlay网络与外部网络的互通;H3C S6800、H3C S1020V充当VTEP,支持Overlay报文的封装与解封装,实现服务器和虚拟机接入到VXLAN网络中。
5.2.4 Overlay组网总结
表2 Overlay组网总结

类别组网虚拟化平台支持适用场景服务链方式
主机OverlayS1020V+VSRCAS/VMWARE/KVM适合海量租户,但单租户对转发性能要求不高的场景,如公有云,网络设备利旧或成本受限条件下的私有云南北向VSR(自带FW功能)+vLB
东西向共享南北向NFV
都采用服务链方式
S1020V+S125CAS/VMWARE/KVM同纯软主机Overlay方案相比,主机Overlay软硬结合方案使用125-X或10500做VXLAN IP GW,跨网段转发性能较高;
与网络Overlay相比,对TOR没有要求,不要求TOR承担VTEP功能
南北向采用服务链引流到(M9000+L5000)
东西向vFW+vLB单跳或者多跳服务链
网络OverlayS68+S125ALL适合于要求高网络转发性能的场景,以及大规模网络的私有云应用场景
混合OverlayS68+S125+S1020VCAS/VMWARE/KVM混合业务场景,有部分业务要求高转发性能,如数据库,存储等

上述几种Overlay组网均支持和Openstack K版本对接。
6 SDN Overlay转发流程描述

6.1 SDN Overlay流表建立和发布


我们以流转发为例介绍SDN Overlay的转发流程。
6.1.1 流表建立流程对ARP的处理
对于虚拟化环境来说,当一个虚拟机需要和另一个虚拟机进行通信时,首先需要通过ARP的广播请求获得对方的MAC地址。由于VXLAN网络复杂,广播流量浪费带宽,所以需要在控制器上实现ARP代答功能。即由控制器对ARP请求报文统一进行应答,而不创建广播流表。
ARP代答的大致流程:控制器收到OVS上送的ARP请求报文,做IP-MAC防欺骗处理确认报文合法后,从ARP请求报文中获取目的IP,以目的IP为索引查找全局表获取对应MAC,以查到的MAC作为源MAC构建ARP应答报文,通过Packetout下发给OVS。
6.1.2 Overlay网络到非Overlay网络
Overlay网络到非Overlay网络的流表建立和路由发布如图22所示:

[attach]1140[/attach]

图22 Overlay网络到非Overlay网络的流表建立和路由发布


创建VM的时候,会同时分配IP和MAC信息。然后VM发送ARP请求报文,该报文会通过Packet-in被上送到控制器。控制器做IP-MAC防欺骗处理确认报文合法后,通过ARP代答功能构建ARP应答报文并通过Packet-out下发。
VM收到ARP应答报文后,封装并发送IP首包。OVS收到IP首报后发现没有对应流表,就将该IP首包通过Packet-in上送控制器。控制器通过OpenFlow通道收到Packet-in报文后,判断上送的IP报文的IP-MAC为真实的。然后根据报文中的目的IP查询目的端口,将IP首包直接发送到目的端口,同时生成相应流表下发到OVS。
流表下发到OVS后,而后续的IP报文就会根据OVS上的流表进行转发,而不再需要上送控制器。
6.1.3 非Overlay网络到Overlay网络
非Overlay网络到Overlay网络的流表建立和路由发布如图23所示:

[attach]1141[/attach]

图23 非Overlay网络到Overlay网络的流表建立和路由发布


创建VM的时候,会同时分配IP、MAC和UUID等信息。VM上线时会触发OVS发送Port Status消息上送控制器,该消息携带VM MAC信息。控制器根据VM MAC查找IP等相关信息,然后携带VM的相关信息通知GW虚机上线。 控制器根据VM上线消息中携带的数据,构造物理机向VM转发报文时使用的流表表项,并下发到VM所在VNI对应网关分组中的所有GW。
6.2 Overlay网络转发流程


1. 识别报文所属VXLAN
VTEP只有识别出接收到的报文所属的VXLAN,才能对该报文进行正确地处理。

2. MAC地址学习

6.2.1 Overlay网络到非Overlay网络
Overlay网络到非Overlay网络的转发流程如图24所示:

[attach]1142[/attach]

图24 Overlay网络到非Overlay网络的转发流程


虚拟机构造发送到物理机的报文,目的MAC为OVS的MAC,目的IP为要访问的物理机的IP,报文从虚拟机的虚拟接口发出。
OVS接收到虚拟机发送的报文,根据报文中的目的IP匹配OVS上的流表表项。匹配到流表表项后,修改报文的目的MAC为VXLAN-GW的MAC,源MAC为OVS的MAC,并从指定的隧道接口发送。从指定的隧道接口发送报文时,会在报文中添加VXLAN头信息,并封装隧道外层报文头信息。
VXLAN-GW从隧道口接收到VXLAN隧道封装报文,隧道自动终结,得到内层报文。然后根据内层报文的目的IP按照FIB(非流表)进行报文三层转发。
报文按照传统网络的转发方式继续转发。物理机接收到VXLAN-GW转发的报文,实现虚拟机到物理机的访问。
6.2.2 非Overlay网络到Overlay网络
非Overlay网络到Overlay网络的转发流程如图25所示:

[attach]1143[/attach]

图25 非Overlay网络到Overlay网络的转发流程


物理机构造发送到虚拟机的报文,在传统网络中通过传统转发方式将报文转发到VXLAN-GW。VXLAN-GW接收该报文时,报文的目的MAC为VXLAN-GW的MAC,目的IP为虚拟机的IP地址,从物理机发送出去的报文为普通报文。
VXLAN-GW接收报文,根据报文的入接口VPN,目的IP和目的MAC匹配转发流表。然后从指定的VXLAN隧道口发送。从隧道口发送报文时,根据流表中的信息添加VXLAN头信息,并对报文进行隧道封装。从GW发送报文为封装后的Overlay报文。
OVS接收到报文后,隧道自动终结。根据报文VNI和目的IP匹配转发流表。匹配到流表后,从指定的端口发送。从OVS发送的报文为普通报文。
根据报文的目的MAC,虚拟机接收到物理机发送的报文,实现物理机到虚拟机的访问。
6.3 Overlay网络虚机迁移


在虚拟化环境中,虚拟机故障、动态资源调度功能、服务器主机故障或计划内停机等都会造成虚拟机迁移动作的发生。虚拟机的迁移,需要保证迁移虚拟机和其他虚拟机直接的业务不能中断,而且虚拟机对应的网络策略也必须同步迁移。
虚拟机迁移及网络策略跟随如图26所示:

[attach]1144[/attach]

图26 虚拟机迁移及网络策略跟随


网络管理员通过虚拟机管理平台下发虚拟机迁移指令,虚拟机管理平台通知控制器预迁移,控制器标记迁移端口,并向源主机和目的主机对应的主备控制器分布发送同步消息,通知迁移的vPort,增加迁移标记。同步完成后,控制器通知虚拟机管理平台可以进行迁移了。
虚拟机管理平台收到控制器的通知后,开始迁移,创建VM分配IP等资源并启动VM。启动后目的主机上报端口添加事件,通知给控制器,控制器判断迁移标记,迁移端口,保存新上报端口和旧端口信息。然后控制器向目的主机下发网络策略。
源VM和目的VM执行内存拷贝,内存拷贝结束后,源VM关机,目的VM上线。源VM关机后,迁移源主机上报端口删除事件,通知给控制器,控制器判断迁移标记,控制器根据信息删除旧端口信息并同时删除迁移前旧端口对应的流表信息。
主控制器完成上述操作后在控制器集群内进行删除端口消息的通知。其他控制器收到删除端口信息后,也删除本控制器的端口信息,同时删除对应端的流表信息。源控制器需要把迁移后新端口通知控制器集群的其他控制器。其他控制器收到迁移后的端口信息,更新端口信息。当控制器重新收到Packet-in报文后,重新触发新的流表生成。
6.4 SDN Overlay升级部署方案


6.4.1 SDN Overlay独立分区部署方案

[attach]1145[/attach]

图27 DC增量部署,SDN Overlay独立分区


基于对原有数据中心改动尽量少的思路下,可以把SDN Overlay部署在一个独立分区中,作为VXLAN IP GW的核心交换机作为Underlay出口连接到原有网络中,对原有网络无需改动,南北向的安全设备和原有DC共享。
场景:在现有数据中心的独立区域部署,通过原有网络互联。
6.4.2 IPGW旁挂部署方案

[attach]1146[/attach]

图28 DC增量部署,IP GW旁挂


考虑到尽量利用原有数据中心空间部署VXLAN网络的情况下,可以采用物理交接机(S125-X/S98)作为VXLAN IP GW旁挂的方案,与经典网络共用核心;而VXLAN网络作为增量部署,对原有网络改动小。
场景:利用现有数据中心剩余空间增量部署。
6.4.3 核心升级,SDN Overlay独立分区

[attach]1147[/attach]

图29 核心利旧升级,SDN Overlay独立分区


核心设备升级为支持VXLAN IP GW的S125-X,同时作为传统和Overlay网络的核心,原有网络除核心设备外保持不变,充分利旧,保护用户原有投资。安全设备物理上旁挂在核心S125-X上,通过VCFC把VPC流量引流到安全设备进行安全防护。 场景:全新建设数据中心区域,或者升级现有中心的网络核心,原有服务器和网络设备重复利用。
6.4.4 Overlay网关弹性扩展升级部署
受制于芯片的限制,单个网关设备支持的租户数量有限,控制器能够动态的将不同租户的隧道建立在不同的Overlay网关上,支持Overlay网关的无状态分布,实现租户流量的负载分担。
如图30所示,Overlay网络可以支持Overlay网关随着租户数量增加的扩充,当前最大可以支持超过64K个租户数量,从而提供一个具有弹性扩展能力的Overlay网络架构。

[attach]1148[/attach]

图30 Overlay网络弹性扩展


6.4.5 多数据中心同一控制器集群部署

[attach]1149[/attach]

图31 多数据中心同一控制器集群部署


控制器跨数据中心部署在多个数据中心,把多个数据中心逻辑上连接为一个数据中心:

7 SDN Overlay方案优势总结


声明:本文转载自网络。版权归原作者所有,如有侵权请联系删除。




欢迎光临 51学通信论坛2017新版 (http://bbs.51xuetongxin.com/) Powered by Discuz! X3