vSphere、vSAN与高速网

  • Post author:
  • Post category:其他


【编者按】

晓苏是我以前的同事,现在任职Cavium公司技术经理。

Cavium公司是全球领先的多核 MIPS 和 ARM 处理器提供商,处理器广泛应用于网络/通讯、无线、存储和控制应用等领域的安全产品。

2016年6月,Cavium以13.6亿美元收购网络厂商QLogic;2017年11月,Marvell拟以 60 亿美元收购 Cavium。

本篇文章经作者授权。可以看到高速网络下vSphere的性能。从下面10G、25G的测试性能截图可以看出,在虚拟环境下,也能充分地发挥硬件的性能。

—Begin—



VMware vSAN




简介


VMware vSAN


,曾用名


VMware Virtual SAN


,现称


vSAN


。我们可以把


vSAN


理解为


vSphere Storage


,是


vSphere


虚拟机后端的企业级高性能存储。


vSAN


其实就是基于服务器端存储的共享分布式对象存储系统,可以用来取代


vSphere


后端的外置磁盘阵列。








vSAN





vSphere


集群服务器各个节点内的


SSD(


固态硬盘


)





HDD(


硬盘


)


,聚合在一起,构成一个共享的存储池。然后再由存储池按照预先创建好的存储策略


(


用户不创建,则自动使用系统默认策略


)


,分配存储空间给集群内的虚拟机使用。


如果借助


NAS


插件,也可提供共享的文件空间给其他集群,或者物理机使用。或者借助vSAN iSCSI接口,也可提供vSAN的空间,以块的访问方式给物理机使用。





vSAN


是一种基于软件的分布式存储解决方案,可在任何标准


X86


服务器上运行,只要


I/O Controller(


控制器


)





SSD





HDD





vSAN HCL (Hardware Compatibility List-


兼容列表


)


内,就可运行。


vSAN





HCL


非常丰富,为用户的选型提供了非常高的灵活性。





S2D


可以使用


RDMA


并且建议采用


25G


网络不同,


VMware vSAN


目前并没有针对网络环境提出太高的要求,选择更为宽松:






在官方建议的最佳实践中,


1G


千兆网卡为最低配置,


10G


万兆网卡为建议配置。这在目前的数据中心网络当中,特别是软件定义存储应用当中,此配置要求是比较宽泛的。



最佳实践是为了获得最好的性能,因此


10G


共享网卡作为最低配置更匹配系统的实际要求,单独的


10G


网卡或者更高速率的接口,才能实现更好的性能特别是全闪存配置的要求。





vSAN


最新版本所对应的


vSphere 6.5


系统配置当中,明确了以下网卡都可以支持:












高速以太网



更高带宽的网卡接口,到底对性能有多少影响呢?


我们做了这样一个实验,单纯地对比


10G


网卡和


25G


网卡在


VMware


环境当中的网络传输性能。


10G


测试时,两端的服务器采用


QLE3442-SR


网卡,每台服务器使用


1


个端口连接到


10G


交换机;


25G


测试时,两端的服务器采用


QL45212


网卡,每台服务器使用


1


个端口连接到


25G


交换机。


vCenter


服务器采用


1G


网卡通过千兆网络对两台测试系统进行管理工作。



实验拓扑请参考下图:







每台


ESX


服务器创建


4





VM


虚拟机,并在虚拟机上运行


IxChariot


流量测试程序,


ixchariot





Ixia


公司的专业性能测试软件,可以模拟各种网络流量场景以评估设备、系统以及网络在这些场景当中的表现。每台虚拟机会运行


2





IxChariot


测试进程,因此在单向流量测试中,总共有


8


个进程在传输测试数据;而双向流量测试中,总共有


16


个进程在传输数据。我们选择的数据包大小在


1KB





64KB


之间,基本可以覆盖主流应用的数据包大小区间。另外,每项测试进行两次,第一次是关闭网卡的


large segment offload (LSO)





TCP segment offload(TSO)


卸载功能,由


CPU


进行数据拆分切片;第二次则开启网卡的


LSO





TSO


硬件卸载功能,降低


CPU


的消耗,提高系统处理能力。



10G


网卡双向流量测试结果:




25G


网卡双向流量测试结果:


从上面的单纯速率测试可以看出以下几点:



1.




25G


网卡传输性能远远超过


10G


网卡





16KB


以下的数据包测试中,差距尤为明显。数据包大小为


16KB


时,差距是


3


倍;而数据包为


1KB


时,传输性能差距超过


20


倍!



2.




LSO/TSO


对网络性能提升帮助很大





25G


网卡测试中,开启


LSO/TSO


硬件卸载平均可以实现


18%


左右的性能提升。



因此从性能角度想要达到最佳的性能,在端口速率的选择上应该还是越高越好。



RDMA




网络特性



既然高速以太网网卡可以提升网络带宽来提高性能,那么现在非常火热的以太网


RDMA


是否也可以应用在


vSAN


之上呢?众所周知


S2D


可以利用


iWARP





RoCE


两种以太网


RDMA


协议。



目前


vSAN 暂


不支持以太网


RDMA


,不过相信不久的将来会支持。微软曾经提供过一个简单虚拟化环境下


RDMA


和普通


TCP/IP


网络性能的对比:








从上图我们可以看出:


1.




RDMA


技术可以显著提升性能,在提高


IOPS


的同时降低时延,降低


CPU


消耗。


2.






TCP/IP

虽然没有

RDMA

网络速度快,但是依然是一个非常可靠的选择





,在对时延要求较低的应用当中,依然可以提供非常可观


IOPS


输出。




vSphere


原本就支持


InfiniBand


网络,在


2017





3


月的文章


vSphere 6.5 with RoCE (RDMA over Converged Ethernet)and Certification Suite


中,已经开始了网卡认证工作。


vSphere


一旦开始支持


RDMA


网络,


vSAN


就会很快实现了。希望到那个时候,我们可以再横向比较一下


vSAN





RDMA


网络和普通


TCP/IP


网络之间的区别。




—End—




本篇文章2018年1月12日在微信公众号 CaviumQLogic 上发布,题为:《vSAN软件定义存储与高速以太网特性 (25G/100G以及RDMA)》




微信公众号平台”乐生活与爱IT”在目前阶段,主要是分享软件定义存储(SDS),及VMware vSAN相关的文章,偶尔也会分享虚拟化、云计算、大数据、区块链等IT类文章,甚至生活类的好文章。


欢迎投稿,特别是原创文章。如果原创文章属于首次发布,根据质量和阅读量的不同,能获得20~500元的稿费。

我的QQ号:9269216






另外,如果还有赞赏收入,


作者可获得60%






欢迎对SDS感兴趣的朋友,加入软件定义存储讨论 QQ群:122295009,可下载原创的一些文章,及其他有参考价值的文档。可直接搜索群号,或者扫描如下二维码:




同时,欢迎您加入 “开放讨论群-SDS&虚拟化” 微信群,并邀请其他对SDS和虚拟化感兴趣的朋友加入此微信群。可以通过添加如下管理员之一的微信号,建议添加管理员时,告知你的公司名和姓名,方便备注保存。



sdg8848



libo9538





yangzhuan



dts0103


欢迎您通过扫描关注微信公众号:“乐生活与爱IT”。




关注后,可以通过点击左下角的





文章目录





,通过输入三位数(


记住!是三位数


,目前


第一位是0或者1


)详细了解如何查看历史文章。


点击左下角“


阅读原文


”,可以跳转到微信公众号“乐生活与爱IT”的上文章:


《InfiniBand支持VMware vSAN吗?》