10 Gigabit Ethernet (GbE)正逐渐成为新宠儿,至少对数据中心而言是这样的。从10 Mbps到100 Mbps 快速以太网以及从快速以太网到千兆以太网的转变模式都是一样的:数据中心和网络经理在交换器之间安装高昂的光纤端口来消除瓶颈。同时随着技术价格的下降,他们能够开始用这些技术来连接服务器。最后,高性能连接被广泛采用。但是,由于之前的以太网转变主要是在速度上,因此迁移到10 GbE将意味着要实现更高的速度。
目前,大多数的数据中心都是针对不同用途运行的多种网络。服务器通过专用光纤通道网络访问存储列阵,而用户则是通过单独且独立管理的以太网网络访问相同的服务器。以太网网络可以通过物理或者虚拟LAN更进一步划分为用户访问、管理、安全和备份网络。大多数运行VMware、Xen或 Hyper-V虚拟软件的虚拟服务器主机必须连接到这几种网络。这意味着每台服务器主机将有多一对1 GbE端口以支持每种网络。调查显示,数据中心经理在虚拟服务器主机上平均设置6至10个以太网连接。
由于有更大的可用带宽,一对10 GbE连接就能够满足一个典型虚拟服务器主机的所有输入和输出(I/O)需求。但是,网络和数据中心经理所面临的挑战并不只是提供带宽。他们还必须确保网络中的每个系统、功能和应用程序有实现互操作性和避免瓶颈所需要的带宽数量和网络服务质量。
10 GbE使数据和存储网络融合成为可能
大多数关于10 GbE的争论都是关于其支持数据和存储网络融合的能力。在过去的10年中,Fiber Channel存储区网络(SAN)的带宽已经增长到平均速度4或8 Gbps,而iSCSI (Internet Small Computer System Interface) SAN一般仍只运行在1Gbps以太网上。
更为突出的是,行业已经开发了SAN管理工具,它虽然并不适用于iSCSI,但是它具有可见性,管理员可用来控制光纤通道网络。
Fibre Channel over Ethernet (FCoE)协议已经允许IT组织在保留光纤通道安全性和管理模型的同时将SAN和数据流融合到10 GbE。FCoE将Fibre Channel Protocol (FCP)数据包封装在以太网帧中,这样服务器可以通过一个以太网连接来访问它的Fibre Channel SAN存储。
FCoE的设计者详细说明了为何FCP数据包必须封装在以太网中,但是还有一个突出的问题需要解决。以太网和光纤通道处理网络拥挤的方式差别很大。实际上,在数据传输之前,光纤通道设备会通过使用缓冲区计数来协商它们预期通过一个链路发送的数据总数。直到接受者反馈具备足够保存数据的可用内存时,发送者才会将数据传输过去。
另一方面,以太网系统只是发送数据。如果线路过于繁忙,导致另外一端的交换机内存太满无法保存数据,那么数据包就会被丢弃。
解决丢包问题
在常规的实现中,光纤通道固有的问题是缺少恢复机制来重传丢失的数据包。而实现一个重传会给存储流造成不可接受的延迟。所以FCoE在设计上利用了以太网的一系列拥塞管理改进方法,所有这些方法一般统称为数据中心桥接(DCB)。
DCB最突出的新功能是基于优先级的暂停。这个功能允许一个以太网交换机要求某台服务器停止发送低优先级数据,直到它能够从内存中清除一些数据,而不是等到缓冲区用光而出现丢包。优先级可能有8个,而FCoE使用的是最高优先级,因此存储数据在网络繁忙的时候也可以传输。DCB解决的丢包问题同样可以提高其它协议的性能,例如iSCSI。
虽然FCoE能够通过无所不在的以太网连接来发送存储流,但是组成该网络的交换机必须包含特定的FCoE支持。有些交换机,例如Cisco Nexus 5000和Brocade 8000,在设计时是部署在每个服务器机架的顶部的,同时具有连接现有SAN的光纤通道端口。支持FCoE的交换机价格与其它支持DCB的10 GbE交换机大致相同,但是设备制造商会索要额外的FCoE支持功能价格。还不需要FCoE功能的企业现在可以使用它们作为标准的顶级机架交换机,将来再增加SAN支持。
FCoE的支持者希望尽可能多地保留Fibre Channel体验,因此他们创建了融合网络适配器(CNA),它可以使用以太网驱动器实现数据传输网络,以及单独的Fibre Channel驱动器和管理软件处理FCoE流量。CAN允许宿主机操作系统,或虚拟机管理程序查看单独的存储和数据连接,而存储管理员则可以查看他们所习惯的界面,例如QLogic SANsurfer或Emulex ONEconnect。CAN也可以将FCoE协议处理或者iSCSI处理负载从服务器的主要处理器卸掉。这在一个典型的8个内核的服务器上可以节省大约3至5%的负载,虽然比例不是很大,但是累积效果会很明显。
实现多路径网络
具有10GbE功能的交换机也可以启用2层协议的多路径。传统的以太网交换机使用生成树协议来防止可能通过广播和其它数据包而堵塞网络的网络回路。生成树的工作原则是,在交换机之间启用唯一一条路径。因此,如果您的顶级机架交换机和核心交换机之间有两条上行链路,那么生成树会禁用其中一条。
2层协议多路径使用TRILL(Transparent Interconnection of Lots of Links)协议来获悉网络上两点之间的所有路径,然后以每次发送一个数据包的方式来寻找最佳的路径。基于TRILL的网络并不需要采用生成树网络那样的分层结构(如,边缘、聚集和核心),而且可以用任意类型的光纤进行连接。它们也会使用所有可能的连接,从而会增加任意两个交换机之间的可用带宽。
显然,我们正在步入10 GbE数据中心网络时代。通过更快的传输速度和诸如DCB和TRILL的新特性,我们可以建立更大、更快和更具弹性的网络,它不仅仅可以输送传统的数据流,还可以通过FCoE传输存储数据。设备制造商仍只是刚开始推出新产品,而且还会继续开发额外的功能和特性。在您的数据中心网络实现这个变革所投入的时间将一定是值得的。
原文链接:http://network.51cto.com/art/201101/243936.htm