为数据中心考虑超融合基础设施的8个理由

| 2020-03-20 18:30:37    标签:

云计算提供商的网络性能有哪些不同

每个云计算提供商的网络连接方式各不相同,这会导致网络性能和可预测性方面的地理差异。随着越来越多的企业考虑将业务迁移到云平台,尤其是软件定义广域网(SD-WAN)和多云,了解每个公共云服务提供商提供的服务以及如何进行比较至关重要。

ThousandEyes公司在2018年进行了一项基准研究,对全球三个主要的公共云提供商:亚马逊网络服务(AWS)、微软Azure(Azure)和谷歌云平台(GCP)的服务进行了评估。该研究收集了有关网络性能和连接架构的数据,以指导用户在规划阶段的工作。

2019年的研究提供了一个更全面的视角,在其研究名单上又增加了两个云计算提供商:阿云和IBM云。研究报告比较了2018年和2019年的调查数据,显示了每年发生的变化以及引发这些变化的原因。

ThousandEyes公司在四周的时间内,定期从使用这五个公共云提供商的全球数据中心的98个用户位置收集双向网络性能指标,例如网络延迟、数据包丢失以及抖动。此外,还研究了美国领先的宽带互联网服务提供商(ISP)的网络性能,其中包括AT&TVerizonComcastCenturyLinkCoxCharter

然后,该公司分析了超过3.2亿个数据点,以创建评估基准。

提供商之间的网络服务并不一致

ThousandEyes公司在最初的研究中发现,一些云计算提供商十分依赖公共互联网来承载用户流量,而其他云计算提供商则不是这样。在2019年的研究中,云计算提供商在双向网络延迟方面总体上表现出相似的性能。

但是,ThousandEyes公司发现网络架构和连接性差异对流量在用户与某些云计算托管区域之间的传输方式有着很大影响。AWS和阿里巴巴主要依靠全球互联网来传输用户流量。微软Azure和谷歌云平台使用其专用骨干网。IBM公司与其他公司不同,采用二者混合的方法。

ThousandEyes公司检验了AWS Global Accelerator是否优于全球互联网的理论。AWS Global Accelerator201811月推出,该服务采用的不是默认的全球互联网,而提供使用AWS专用骨干网,并向用户收费。尽管其在全球某些地区的网络性能确实有所提高,但在其他情况下,全球互联网比AWS Global Accelerator更快、更可靠。

即使在成熟的美国市场,企业用来连接每一个云计算提供商的宽带网络服务提供商(ISP)的服务也并不一致。在对6个美国网络服务提供商(ISP)的网络性能进行评估后,记录了次优的路由结果,在某些情况下,其网络延迟是预期的10倍。

地点至关重要

云计算提供商的服务在穿越一些国家的过滤防火墙时,通常都会遇到丢包的情况。该公司在2019年的研究中,仔细检查了云计算服务提供商在一些国家的运营费用,这对在线企业而言是极具挑战性的地理位置。

在世界其他地区,拉丁美洲和亚洲表现出所有云计算提供商最大的性能差异。例如,由于反向路径不太理想,谷歌云平台的托管区域从里约热内卢到圣保罗的网络延迟是其他五家云计算提供商的六倍。但是在北美和西欧,所有五家云计算提供商均展现了强大网络性能。

这项研究的结果证明,地点是主要因素,因此,企业在选择公共云提供商时应考虑用户到主机区域的性能数据。

多云连接

2018年的研究中,ThousandEyes公司发现AWS、谷歌云平台、Azure的骨干网络之间的广泛连接。在2019年的研究中还有一个有趣的发现,在将IBM公司和阿里云添加到调查列表中时,多云连接变得不稳定。

ThousandEyes公司发现IBM公司和阿里云尚未与其他提供商完全建立直接连接。那是因为他们通常使用网络服务提供商(ISP)将其云平台连接到其他提供商。另一方面,AWSAzure和谷歌云平台可以直接相互对等连接,并且不需要第三方网络服务提供商(ISP)的服务进行多云通信。

随着多云计划的兴起,在评估多云连接性时,应将网络性能作为一项衡量标准,因为它似乎在云计算提供商和地理边界之间不一致。

ThousandEyes公司的综合性能基准可以作为企业确定哪个公共云提供商最能满足其需求的指南。但还是需要谨慎,选择公共云连接的用户应该考虑全球互联网的不可预测性、如何影响性能、面临的风险,以及运营复杂性。用户应通过个案收集自己的网络情报来应对这些挑战。只有这样,他们才能从云计算提供商所提供的内容中充分受益

 

 

为数据中心考虑超融合基础设施的8个理由

随着组织将工作负载转移到云中,对本地数据中心设备的需求正在减少。但是,本地部署还远未消亡,而蓬勃发展的一个领域是超融合基础架构(HCI)

 

HCI是一种横向扩展,软件集成的基础架构,它采用模块化方法来计算,网络和存储容量。HCI没有使用专用硬件,而是利用了分布式的水平水平的商品硬件,并提供了一个用于报告和管理的单窗格仪表板。尺寸因人而异:企业可以选择从NutanixVMware等厂商选择与硬件无关的超融合软件,也可以从HP EnterpriseDellCiscoLenovo等厂商选择部署集成的HCI设备。

Gartner预测,到2023年,将有70%的企业运行某种形式的超融合基础设施,而2019年不到30%。随着HCI的普及,亚马逊,谷歌和微软等云提供商将提供与本地的连接。用于混合部署和管理的HCI产品。

那为什么如此受欢迎呢?以下是一些主要原因。

1. 简化设计

传统的数据中心设计包括具有单独服务器层的单独存储孤岛以及横跨计算和存储孤岛的专用网络。这在前云时代已经奏效,但是对于云时代来说太僵化了。Nutanix产品营销副总裁Greg Smith说:“ IT团队需要数周或数月的时间来提供新的基础架构,这样开发团队才能生产新的应用程序并迅速推向市场,这是站不住脚的。

他说:“ HCI从根本上简化了数据中心架构和操作,减少了管理数据和交付应用程序的时间和费用。

2. 云整合

HCI软件(例如来自NutanixVMwareHCI软件)以相同的方式部署在客户的数据中心和云实例中。它在云中的裸机实例上运行的方式与在数据中心中完全相同。对于想要构建混合云的公司来说,“ HCI”是最好的基础。他们可以在数据中心部署应用程序,然后将其与公共云融合。” Smith说。

他补充说:由于两端都是相同的,因此我可以让一个团队管理端到端的混合云,并有信心在我的私有云中运行的任何应用程序也将在该公共云环境中运行。

3. 从小处开始,从大处发展的能力

“ HCI使您可以将计算,网络和存储整合到一个盒子中,并且可以快速,轻松地发展该解决方案,而不会造成大量停机,位于加拿大安大略省贝尔维尔的黑斯廷斯爱德华王子公共健康公司的IT系统经理Tom Lockhart说。

在传统方法中,必须分别安装和配置多个硬件,包括服务器,光纤通道交换机,基于主机的适配器和管理程序。借助超融合,一切都由软件定义。HCI使用服务器中的存储,软件几乎完全自动配置并检测硬件,从而建立计算,存储和网络之间的连接。

一旦我们承担了工作量,[客户]通常会获得很好的体验。几个月后,他们尝试了另一种工作负载,然后开始将其从数据中心扩展到远程站点。戴尔HCI产品管理副总裁Chad Dunn说。

无论是从40 TB的数据还是40 PB的数据,它们都可以从小规模开始,然后逐渐变大,但也具有一致的操作模型经验,无论每个站点在1000个站点中有1000个节点还是三个节点。他们拥有一致的软件更新,因为它们是相同的工具集,因此无需重新培训人员。” Dunn补充说。

4. 减少占地面积

从小处着手,客户发现他们可以将硬件堆栈减少到所需的大小,而不是过度配置过多的容量。摆脱孤立的方法还允许用户消除某些硬件。

钢铁制造商USS-POSCO Industries的自动化工程师Josh Goodall表示,他的公司之所以部署HCI,主要是因为它具有处理拉伸群集的能力,该群集中的硬件群集位于两个物理位置,但相互连接在一起。这主要是用作备份,因此,如果一个站点发生故障,则另一个可以接管工作负载。在此过程中,USS-POSCO摆脱了许多昂贵的硬件和软件。我们取消了多个CPU [软件]许可,我们从其他站点中删除了SAN,不需要SRM [站点恢复管理]软件,也不需要Commvault许可。每年的许可证续订节省了25,00030,000美元,” Goodall说。

5. 不需要特殊技能

要运行传统的三层环境,公司需要计算,存储和网络方面的专家。借助HCI,公司可以由一般技术顾问和员工而不是更昂贵的专家来管理环境。

Smith说:“ HCI增强了存储多面手的能力。” “您不必雇用存储专家,网络专家。每个人都必须拥有基础架构,但是与在这三种技能下需要深入专业知识的典型情况相比,它们使基础架构的实际维护容易得多。

哈斯廷斯爱德华王子公共健康公司的洛克哈特说,与传统基础架构相比,添加新的计算/存储/网络也要快得多。他说:对服务器集群的升级是在20分钟内没有停机时间,而停机时间是数小时,而使用传统方法则导致服务中断。

您可以不必专注于基础架构,而可以增加在工作负载上花费的时间和资源,从而为您的业务增添价值。当您不必担心基础架构时,您可以花更多的时间在为客户增加价值的事情上。

6. 更快的灾难恢复

超融合产品的关键要素是其备份,恢复,数据保护和重复数据删除功能,以及对其进行全面检查的分析。灾难恢复组件通过单个仪表板进行管理,HCI不仅监视本地存储,还监视云存储资源。使用重复数据删除,压缩率高达551,并且备份可以在几分钟内完成。

7. 超融合分析

HCI产品随附大量分析软件,用于监视工作负载并查找资源限制。监视软件被合并到系统性能(包括负面影响的性能)的单个仪表板视图中。

Hastings最近在Windows 7迁移中遇到了问题,但是HCI模型使获取性能信息变得容易。洛克哈特说:这表明工作负载(取决于一天中的时间)耗尽了内存,并且有过多的CPU排队和分页。” “我们在一个小时内就完成了整个[问题]的记录。很容易确定问题出在哪里。如果没有这种单一窗格的视图,则可能需要更长的时间。

8. 减少管理网络,存储资源的时间

Goodall说,他过去通常将多达50%的时间用于存储问题和备份矩阵。现在他可能花费20%的时间来处理它,大部分时间用于解决和解决遗留系统。而且他的应用程序在HCI下表现更好。我们的SQL数据库没有任何问题。如果有的话,由于转向完整的固态硬盘(而不是硬盘)和数据重复数据删除,我们已经看到了巨大的性能提升,从而减少了环境中的读写。