服务器报价热线

零距离体验NVIDIA DGX-1 AI 超级计算机

深度学习的快速发展正在给 AI 领域以及传统产业带来巨大的改变。各个行业的数据科学家要借助深度学习和数据分析来获取洞见、加速创新,这些都有赖于出色的计算性能,而GPU技术是提供通往 AI 和深度学习的更快途径。
 
此外,AI 和深度学习要求在软件工程方面投入大量精力。这项投资可能会导致您的项目延误几个月,因为您需要集成复杂的组件及软件堆栈,其中包括框架、库和驱动程序。
 
NVIDIA DGX-1 通过开箱即用的解决方案来加快实施您的计划,如此一来,您可以在几小时而非数月内获得见解。借助 DGX-1,再加上集成式 NVIDIA 深度学习软件堆栈,您只需开启电源,即可开始工作。现在,您只需短短一天时间即可开始深度学习训练,而不必花费数月来集成和配置软硬件以及进行错误排查。
 
在软件方面,目前已有可以大规模运行深度学习的 DGX-1 软件。其主要目标是让从业者能够在 DGX-1 上部署深度学习框架和应用程序,同时将设置工作减至最少。该平台软件的设计理念为最大限度地减少服务器上安装的操作系统和驱动程序,并通过由 NVIDIA 维护的 DGX Container Registry在 Docker 容器内配置全部应用程序和SDK 软件。

 
NVIDIA DGX-1 简介
 
1、通往深度学习的更快路径
 
NVIDIA DGX-1 通过开箱即用的解决方案来加快实施您的计划,如此一来,您可以在几小时而非数月内获得见解。借助 DGX-1再加上集成式 NVIDIA 深度学习软件堆栈,您只需开启电源,即可开始工作。现在,您只需短短一天时间即可开始深度学习训练,而不必花费数月来集成和配置软硬件以及进行错误排查。
 
2、强大组件
 
NVIDIA DGX-1 发挥出了最新NVIDIA Tesla V100 GPU 加速器的全部潜力,包括下一代 NVIDIA NVLink 和 Tensor 核心架构。相比其他基于 GPU 的系统,DGX-1 凭借其注重性能的深度学习软件堆栈,将训练速度提升高达三倍。
 
1)NVIDIA Tesla V100GPU 加速器
 
采用专为高性能计算及深度学习设计的 NVIDIA 首款 Tensor Core 技术 GPU 架构,借助 32GB 显存针对 AI 进行优化。
 
2)四路 EDR IB
 
不仅拥有高带宽和低延迟,且总通信传输速率达到 800Gb/s。
 
3)INTEL XEON CPU
 
用于启动、存储管理和深度学习框架协调。
 
4)下一代 NVIDIA NVLink技术
 
每个 Tesla V100 拥有 6 个 NVLink 连接,分别具有 50Gb/s 的双向带宽,双向总带宽高达 300Gb/s。
 
3、深度学习训练速度提高 140 倍
 
相较于只使用CPU的服务器,深度学习训练速度得到了大幅度提升。

上一篇: 最新NVIDIA的“RTX"显卡将深刻影响VR发展
下一篇: 英伟达nvidia为加速GPU用于AI训练发布RAPIDS平台

本文责任编辑【itsto.com