英伟达 A800 80GB GPU显卡 AI训练/HPC/科学计算加速卡:6912个 NVIDIA CUDA 核数,40/80GB GDDR6 显存,最大功耗 300瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长;3年质保

名称
NVIDIA A800
品牌
编号
900-21001-0030-100
价格
电询
备注
图片仅供参考!本站所售服务器等整机产品均由原品牌厂商全国联保
英伟达 A800 TENSOR CORE GPU
在各个规模上实现出色加速适用各种工作负载的出色计算平台
NVIDIA A800 Tensor Core GPU 可针对 AI、数据分析和高性能计算(HPC)应用,在各个规模下实现出色加速,有效助力全球高性能弹性数据中心。作为 NVIDIA 数据中心平台的引擎,相较于前一代NVIDIA Volta,A800 可提供高达 20 倍的性能。A800支持高效扩展,也可划分为七个独立的 GPU 实例,多实例 GPU (MIG)可提供统一平台,助力弹性数据中心动态地适应不断变化的工作负载需求。
NVIDIA A800Tensor Core 技术支持广泛的数学精度,可针对每个工作负载提供单个加速器。最新一代 A800 80GB 将 GPU 显存加倍,提供 2TB/s 的全球超快显存带宽,可加速处理超大型模型和海量数据集。A100 是完整 NVIDIA 数据中心解决方案的一部分,该解决方案由硬件、网络、软件、库以及 NGC 中经优化的 AI 模型和应用等叠加而成。作为性能超强的端到端数据中心专用 AI 和 HPC 平台,它可助力研究人员交付真实的结果,并将解决方案大规模部署到生产环境中。
 
跨工作负载的卓越性能

突破性的创新
 
NVIDIA AMPERE 架构
无论是使用 MIG 将 A800 GPU 分割为较小的实例,还是使用 NVLink连接多个 GPU 来加速大规模工作负载,A100 均可轻松满足不同规模的加速需求,从小型作业到大型多节点工作负载无一例外。A800 功能全面,这意味着 IT 经理可借此全天候充分利用数据中心内的每个 GPU。
第三代 TENSOR CORE 技术
NVIDIA A800 的深度学习运算能力可达 312 teraFLOPS(TFLOPS)。其深度学习训练的Tensor 每秒浮点运算次数(FLOPS)和推理的 Tensor 每秒万亿次运算次数(TOPS)皆为NVIDIA Volta GPU 的 20 倍。
新一代 NVLINK
A800 中采用的 NVIDIA NVLink可提供两倍于上一代的吞吐量。与 NVIDIA NVSwitch 结合使用时,此技术可将多达 16 个 A800 GPU 互联,并将速度提升至 600GB/s,从而在单个服务器上实现出色的应用性能。NVLink 技术可应用在 A800 中:SXM GPU 通过 HGX A100 服务器主板连接,PCIe GPU 通过 NVLink 桥接器可桥接多达 2 个 GPU。
多实例 GPU (MIG)
一个 A800 GPU 最多可分割成七个GPU 实例,这些实例在硬件级别完全独立,并独自拥有高带宽显存、缓存和计算核心。借助 MIG,开发者可为其所有应用实现惊人加速,IT 管理员也可为每个作业提供符合其规模的 GPU 加速,进而优化GPU 利用率,并让每个用户和应用都能使用 GPU实例。
高带宽显存(HBM2E)
凭借 80GB 的高带宽显存(HBM2e),A800 成为世界首款将显存带宽提升至超过 2TB/s 的GPU,并将动态随机存取存储器(DRAM)的利用效率提高至 95%。A800 提供的显存带宽是上一代产品的 1.7 倍。
结构化稀疏
AI 网络拥有数百万至数十亿个参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使模型变得“稀疏”。A800 中的 Tensor Core 可令稀疏模型的性能获得高达两倍的提升。稀疏功能不仅更容易使 AI 推理受益,同时还能提升模型的训练性能。
 
NVIDIA A800 Tensor Core GPU 是 NVIDIA 数据中心平台的旗舰产品,可用于深度学习、HPC 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A800适用于桌面、服务器以及云服务,不仅能显著提升性能,还能创造众多节约成本的机会。
 
面向企业的优化软件和服务

NVIDIA A800 GPU 规格参数
产品特征:NVIDIA A800 (900-21001-0030-100) 英伟达(NVIDIA)