驱云驾长风 —— 华为GPU加速云服务器让“硬用”上云

网友投稿 782 2022-05-29

华为GPU加速云服务器

“神机”妙算

华为推出GPU加速云服务器,致力于帮助用户解决自建GPU集群面临的各种痛点问题,让用户更专注于加速计算。

依托华为深厚的技术积累和卓越的软硬件设计整合能力,提供旗舰级GPU加速云服务器、超高的可靠性保障、强大的安全防护能力和易用的统一管理平台,全面降低运维难度。

GPU加速云服务器提供虚拟化和裸机等多规格灵活的配置选项,满足不同计算能力需求,优异的弹性扩展能力,支持用户对计算资源的按需取用,极大降低使用成本。

极致性能,欲与天公试比高

华为GPU加速云服务器硬件平台单物理节点包含8块业界领先的NVIDIA旗舰级NVIDIA® Tesla® P100 GPU加速器,每块GPU拥有3584个NVIDIA® CUDA® 核心,PCIe Gen3 接口,带宽32GB/s,双精度4.7 TeraFLOPS,单精度9.3 TeraFLOPS,半精度达到18.7 TeraFLOPS,同时搭配16GB HBM2显存,带宽732GB/s。

每个物理节点配备的NVMe SSD磁盘,能提供较普通SSD数倍的IOPS和带宽能力。在海量数据计算场景下,提供极低的访问时延和超高的存储带宽。

对于追求极致性能的客户,华为GPU加速云服务器还特别打造了GPU加速裸机实例,内建8块Tesla® P100 GPU,客户独享整个物理节点资源。裸机实例没有虚拟化损耗,加上华为专业团队调优,最大程度发挥硬件性能。

七十二变,灵活按需的实例配置

华为GPU加速云服务器提供灵活的实例配置,其中包括多种虚拟化实例,通过GPU直通技术灵活选择配置1/2/4块Tesla® P100 GPU,满足用户不同计算能力的需求。

专属裸机GPU加速实例单节点性能最优,可直接获取单节点8块Tesla® P100 GPU的全部性能,由于裸机没有虚拟化的损耗,同时实现了物理资源隔离,可以满足一些用户的极致使用场景。

特别推出基于NVIDIA® Tesla® P4的主打推理性能的加速云服务器实例,专门针对深度学习推理进行优化,支持35路高清视频硬件编解码,满足用户更多定制化需求场景。

华为GPU加速云服务器构建在华为弹性云服务器之上,提供良好的弹性扩展能力,支持“虚拟化+裸机”的混合部署,用户对计算资源可“按需取用”,最大限度的节省计算资源的使用成本。

功能强大,全 套平台级解决方案

华为GPU加速云服务器、大数据平台和人工智能平台无缝整合,发挥华为全球领先的软硬件结合的技术实力,提供整 套平台级解决方案。

框架开放,内置大量高性能的分布式算法、数据预处理算法和机器学习算法等,支持计算引擎扩展以及自定义算法和组件。

最大限度简化用户开发和部署AI应用难度,为用户提供高效的计算服务和出色的人机交互能力。

开放合作,完善上下游产业链

驱云驾长风 —— 华为GPU加速云服务器让“硬用”上云

华为GPU加速云服务器为第三方合作伙伴提供从GPU硬件管理、编程接口、到云操作系统各层的全面技术支持。

目前华为GPU加速云服务器与20多家合作伙伴联合解决方案已覆盖深度学习、基因测序、视频处理、气象测算和分子建模等多个领域。

华为愿与更多第三方伙伴携手打造开放生态系统,为更多行业提供丰富的计算加速解决方案。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Android中的Serializable、Parcelable
下一篇:rsync+inotify实现数据的实时备份
相关文章