您现在的位置是:首页 > 互联网 > 正文

NVIDIA vComputeServer使GPU加速的工作负载像CPU VM一样易于管理

发布时间:2022-06-19 06:00:06来源:

导读 上周,虚拟化巨头VMware在旧金山举行了其VMWorld 2019用户大会。23,000名左右的与会者被视为对托管公司及其众多合作伙伴进行虚拟化的显着

上周,虚拟化巨头VMware在旧金山举行了其VMWorld2019用户大会。23,000名左右的与会者被视为对托管公司及其众多合作伙伴进行虚拟化的显着创新。我认为最引人关注的公告之一是NVIDIA与VMware的联合计划,旨在将虚拟图形处理单元技术(vGPU)引入VMware的vSphere和AmazonWebServices(AWS)上的VMware云。

转到此处查看eWEEK的顶级预测分析公司列表。

虚拟GPU已经使用了一段时间,但无法在虚拟服务器上运行。现在,企业可以使用VMwarevSphere上的GPU来运行诸如人工智能和机器学习之类的工作负载。

IT需要加强并拥有GPU加速的服务器

从历史上看,需要GPU的工作负载必须在裸机服务器上运行。这意味着组织中的每个数据科学团队都必须购买自己的硬件并承担相应的费用。而且,由于这些服务器仅用于那些GPU加速的工作负载,因此它们通常是在IT控制范围之外进行采购,部署和管理的。如今,人工智能,机器学习和GPU逐渐成为主流,现在是IT加强所有权的时候了。挑战在于IT部门不想承担运行数十个或数百个裸机服务器的任务。

GPU共享是最常用的vGPU

vComputeServer最明显的用例是GPU共享,其中多个虚拟机可以共享一个GPU,类似于服务器虚拟化为CPU所做的工作。这将使企业能够加快其数据科学,AI和ML计划,因为启用GPU的虚拟服务器可以像其他所有工作负载一样加速,减速或迁移。这将提高使用率,提高灵活性并帮助公司节省资金。

这项创新还应使公司能够在混合云环境中运行GPU加速的工作负载。虚拟化功能与VMware的vSAN,VeloCloudSD-WAN和NSX网络虚拟化相结合,为在真正的混合云中迁移到运行虚拟GPU奠定了坚实的基础。

客户可以继续利用vCenter

重要的是要了解vComputeServer可与其他VMware软件一起使用,例如vMotion,VMwareCloud和vCenter。扩展的VMware支持非常重要,因为这可以使企业将GPU工作负载带入高度容器化的环境。而且,VMware的vCenter已成为数据中心管理的事实上的标准。曾经有一次我以为微软可能会在这里挑战,但是VMware赢得了这场战争。因此,NVIDIA使客户能够通过vCenter管理vGPU是很有意义的。

NVIDIAvComputeServer还支持GPU聚合

对于大多数对AI/ML感兴趣的企业而言,GPU共享应该改变游戏规则,而当今几乎所有公司都应如此。但是,vComputeServer还支持GPU聚合,这使VM可以访问多个GPU,这通常是计算密集型工作负载的要求。vComputeServer支持多vGPU和对等计算。两者之间的区别在于,使用多vGPU,GPU可以分布且不连接;通过点对点,GPU使用NVIDIA的NVLink连接,这使多个GPU看起来像一个功能更强大的GPU。

几年前,GPU的使用仅限于由专业团队执行的少数特殊工作负载。数据驱动的公司越多,GPU加速的流程将不仅在人工智能中而且在日常运营智能中起关键作用。

VMware和NVIDIA共同创造了一种方法,使公司可以开始AI,数据科学和机器学习,而不必花费很多钱。

标签:

上一篇
下一篇