如今,软件在科技创新方面占据了一席之地,它超越了了对硬件的任何改进。但为未来的数据中心做好准备:硬件转型将发生在内存(动态随机存取存储器)上,而内存作为数据中心主要存储器已有二十多年的历史。展望未来,有多种选择可以提高效率、持久性和降低成本。
为了解决这些创新中的一些问题,行业媒体Search DataCenter与戴尔技术全球技术战略副总裁Danny Cobb进行了探讨。Cobb多年来目睹了许多行业变化,他曾经是EMC公司的首席技术官,作为数字设备公司的资深技术人员,Cobb概述了将在未来数据中心计划中让IT专业人士关注的各种基础设施技术。
你曾经公开讨论了数据中心单级单元到多级单元存储器的演进。什么样的技术对未来的数据中心至关重要?
Danny Cobb:如今有一种使用人工智能(AI)和机器学习技术实时优化基础设施的概念。我们积极参与了图形处理单元,张量处理单元,现场可编程门阵列(FPGA)等一些新的计算模型的研究工作,从根本上说是作为一种在架构上提供的服务。用户可以使用机器学习和人工智能技术根据数据中心中的可用资源来调度工作负载。三四年前,每个工作负载都在同质的虚拟x86上运行,而这是一种同质的计算世界。
这个新世界是异构计算,是卸载引擎,是加速人工智能,是FPGA在数据中心中动态编程。因此数据中心基础架构本身必须承载更多的知识,我们看到这种基础设施的风格随着在这些平台上的计算和工作负载的风格的发展而不断发展。
可分解和组合的基础设施似乎本地部署的数据中心对于云计算的回应用,那么数据中心的未来是什么?
Danny Cobb:作为一名IT专业人士,这个想法就是让更多的工作运行,获得最大的价值,并在单位时间和单位成本下处理最多的数据。
融合基础设施解决的第一个问题是,现在可以购买一整套IT工作设备…我可以预测其性能表现,而且也了解其成本,而但企业团队并不需要为我做这件事。
现在,我想将这些东西部署在更细粒度,更易消耗的容量块中。这让我们实现超级融合。现在,可以购买更小的单元—一个1U服务器的东西,可以获得一些管理和业务流程的能力,使硬件可管理,并部署一个共享的存储软件堆栈,并具有单一的,统一的纵向扩展的存储空间。
如今,无论采用英特尔还是AMD或其他架构,从根本上说,人们通过DDR(双倍数据速率)紧密耦合内存进行处理。但是,在行业和技术路线图中有一些这样的例子,例如GenZ,OpenCAPI和C6总线技术。这是我们已经开始将传统的内存层次结构与处理模型分离的一个领域,这种模式可以实现灵活性。
像PCIe(PCI Express)这样的技术从根本上来说就是I/O总线技术,每隔两年就将实现带宽加倍,并减少一半的延迟。这是一个伟大的单总线系统。而多总线系统并不是真正的结构,它不具备配置自身的能力,并且不能采用其他光纤技术一样实时进行的设备。在新总线的空间,那就是以太网上的RDMA以及将其用作新的系统间结构的能力。这也是我之前提到的那些内存总线,无论是C6还是GenZ。
哪些新兴的技术值得让人们关注?
Danny Cobb:令人高兴的是新兴的回忆。想象一下,您具有成本效益,非常高性能的DRAM类内存。如何改变每个地方你有一个物联网传感器?如果我能开始在一个低成本、持久化的设备中缓冲,那么在边缘就有永久存储的元素,但现在真的不能这么做,如果我把闪存放在那里,那速度太慢了。如果采用内存,那么必须配备电池,以防止它失去信息。这将启用一个全新的体系结构,这种架构将被内存所支持,这些成本低廉价的处理方案在所有这些物联网设备中都能使用。
采用真正的内存替换永久内存——这是一个颠覆性的步骤。如果使它持久化,就需要开始改变编写软件的方式。我们不编写软件来使用卷管理器对文件系统进行POSIX读写操作。相反,我将加载和存储从处理器到内存,那就是我的应用程序。这些以内存或内存为中心的工作负载将开始加快采用。而SAPHANA和内存数据管理应用程序也将应用。
这些都是主要的进化步骤。而其革命性的一步至少有一个像20年前多线程编程那样具有革命性,而这是应用程序的持久内存模型。为此将采用新的软件和新的编程语言。