微软Azure宣布集成了英伟达针对AI应用程序的加速计算技术
(资料图)
编程客栈()8月10日 消息:微软 Azure 宣布了其与英伟达的加速计算技术的集成,为生成式 AI 应用的训练和部署带来了进步。通过将 Azure ND H100v5虚拟机 (VM) 与 英伟达 H100Tensor Core GPU 和 Quantum-2InfiniBand 网络集成,用户可以轻松地扩展他们的生成式 AI 和高性能计算应用。
微软 Azure 和 英伟达 的合作正值开发者和研究人员探索大型语言模型 (LLMs) 和加速计算在各种消费者和商业用例中的潜力的关键时刻。
英伟达 的 H100GPU 提供了超级计算级的性能,它具有第四代 Tensor Cores、用于加速 LLMs 的 Transformer Engine 和用于快速 GPU 间通信的 NVLink 技术。凭借令人印象深刻的3,200Gbps 跨节点带宽,英伟达 Quantum-2CX7InfiniBand 的集成确保了 phpGPU 之间的无缝性能,使其与先进超级计算机的计算能力相媲美。
ND H100v5VMs 的引入为训练和推断复杂的 LLMs 和计算机视觉模型开辟了新的可能性。这些神经网络为诸如问答、代码生成、音频、视频、图像合成和语音识别等应用提供了动力。
ND H100v5VMs 的突出特点是它们能够在 LJoVmUxLM 推断方面实现高达2倍的加速,这一点通过 BLOOM175B 模型得到了证明。这种性能的提升优化了 AI 应用,并在各个行业推动了创新。
通过 英伟达 和 微软 Azure 的合作,企业获得了无与伦比的 AI 训练和推断能js力。英伟达 AI Enterprise 软件套件和 Azure MAChine Learning for MLOps 的集成简化了生产 AI 的开发和部署。
此外,合作还通过将 英伟达 Omniverse 平台与 Azure 集成而延伸,为用户提供了工业数字化和 AI 超级计算的工具。
微软 Azure 和 英伟达 的加速计算技术的集成开启了 AI 应用的新可能性,并使企业能够利用生成式 AI 的潜力来满足他们的特定需求。