惠普报价网-新闻RSS http://www.itsto.com/ 新闻与动态 <![CDATA[宇宙最强GPU,到底是那一款?Tesla V100还是Tesla T4]]> http://www.itsto.com//news/1650.html Tesla V100 或者选择基于图灵架构的 Tesla T4 为其加速人工智能、高性能计算、加速数据中心应用会成为难题吗?或许可以帮助他们在 AI 和 HPC 创新中占得先机 成为至关重要的环节。

至于当今世界最强的GPU到底是Tesla V100还是 Tesla T4? 下面我们来看看 主流GPU的参数对比



从上图技术参数来看,T4和V100之间的差距还是很大的


NVIDIA Tesla V100 -才是当今数据中心 GPU 的精尖之作

NVIDIA Tesla V100 是当今市场上为加速人工智能、高性能计算和图形的数据中心 GPU 中的精尖之作。NVIDIA Tesla V100 加速器基于全新 Volta GV100 GPU,Volta 是全球功能强大无比的 GPU 架构,而 GV100 是第一种突破 100 TFLOPS 深度学习性能极限的处理器。GV100 将 CUDA 核心和 Tensor 核心相结合,在 GPU 中提供 AI 超级计算机的出色性能。现在,借助 Tesla V100 加速的系统,过去需要消耗数周计算资源的 AI 模型只需几天即可完成训练。随着训练时间的大幅缩短,在 NVIDIA Tesla V100 加速器的助力下,AI 现在可以解决各类新型问题。
 

]]>
2019-06-24 14:34:34
<![CDATA[寒武纪二代AI芯片PK英伟达Tesla T4 GPU]]> http://www.itsto.com//news/1649.html 近日,寒武纪预计 在2019年5月底或6月准备发布的第二代AI芯片被曝光,据知情人士透露,该产品的主要对标对象便是业界巨头 NVIDIA发布的Tesla T4芯片。

 


 


据悉,寒武纪第二代AI芯片名为 思元270,代号为MLU270,其中,MLU为Machine Learning Unit的缩写,与上一代MLU170命名一致。

基本参数上,思元270基于台积电16nm工艺打造;可支持 INT16/INT8/INT4 等多种定点精度计算,其中,INT16 的峰值性能为 64Tops,INT8 为 128Tops,INT4 为 256Tops。而Tesla T4相应峰值性能分别为 65 Tops、130 Tops、260 Tops,基本持平差别不大。而在功耗上,思元270为75w,同样与英伟达 T4持平。

大家如有兴趣了解 英伟达 Tesla T4 GPU的一些技术参数请扫下图中的二维码可获得详细参数!

 

目前Tesla T4显卡 目前已经大量投放市场,并已经被业内领先的AI应用企业广泛部署。

]]>
2019-06-24 09:52:51
<![CDATA[探索:强大性能的NVIDIA DGX-2]]> http://www.itsto.com//news/1648.html NVIDIA DGX-2 是 NVIDIA 首款 2-petaFLOPS 系统,它整合了 16 个完全互联的 GPU,使深度学习性能提升 10 倍,突破了人工智能速度和规模的障碍。它采用 NVIDIA® DGX™ 软件和基于 NVIDIA NVSwitch 技术构建的可扩展架构,可以帮您应对众多复杂的人工智能挑战。
 
非同一般的计算能力造就出众的训练性能
 
人工智能日益复杂,因而对计算能力的要求比以往更高。NVIDIA® DGX-2 集 16 个 NVIDIA 家族最先进的 GPU 的计算能力于一身,可以加速实现 之前无法训练的新人工智能模型类型 。此外,它还具有突破性的 GPU 可扩展性,因此您可在单一节点上训练规模扩大 4 倍的模型,而且其性能达到 8 GPU 系统的 10 倍。
 
将 AI 规模提升至全新水平的最快途径
 
现代企业需要快速部署人工智能功能以满足业务需求。DGX-2 提供随时可用的模块化解决方案,打造扩展人工智能的最快途径。凭借用于构建大型深度学习计算集群的灵活网络选项,再结合可在共享基础设施环境中改进用户和工作负载隔离的安全多租户功能,DGX-2 使人工智能扩展得以简化,从而加快了扩展速度。借助加速部署模型和专为轻松扩展而构建的架构,您的团队可以减少构建基础设施所花的时间,节省出更多的时间来提升洞察力。
 
革命性的人工智能网络架构
 
通过使用 DGX-2,模型的复杂性和规模再也不受传统架构局限性的限制。现在,您可以利用 NVIDIA NVSwitch 网络架构进行模型并行训练。NVIDIA 首款 2 petaFLOPS GPU 加速器采用的正是这种创新技术,其 GPU 间带宽高达 2.4 TB/s,性能比前代系统提升了 24 倍,并且问题解决速度提高了 5 倍。
 
始终运行的企业级人工智能基础设施
 
人工智能对您的业务而言非常关键,因此,您需要专为高可靠性、可用性和可维护性 (RAS) 而设计的平台来为您保驾护航。DGX-2 专为 RAS 而打造,可以减少计划外停机时间,简化可维护性,并保持运行连续性。DGX-2 是一款企业级产品,依托 NVIDIA 专业知识,专为满足严格的全天候运行要求而构建,旨在使重要的人工智能工作保持正常运行
 
探索 DGX-2 强劲的组件
]]>
2018-11-12 15:23:52
<![CDATA[NAS和服务器的优势、劣势分析,该如何选择?]]> http://www.itsto.com//news/1647.html 数据存储作为企业的重要组成部分,必须能够安全快速地分发数据并备份重要的业务信息。同时,随着业务的增长,您对更加复杂的存储设施的需求也在增长,尤其是当您的员工需要访问办公内外的大量信息时。NAS(Network-attached Storage)和服务器是数据访问、存储和共享的两个主要设备。那么,NAS和服务器哪个更适合您呢?接下来,本文来为您解答。
 
什么是NAS及NAS的优劣势?
 
NAS又称为网络附加存储,是采用网络(TCP/IP、ATM、FDDI)技术,通过网络交换机连接存储系统和服务器主机,建立专用于数据存储的存储私网。也就是说,NAS是部门级的存储方法,将存储设备通过标准的网络拓扑结构(比如以太网),连接到一群计算机上,从而帮助工作组或者部门级机构解决迅速增加存储容量的需求。
 
(1)优势
 
①NAS设备比服务器小,因此能节省办公室更多的空间。
 
②NAS设备比服务器更加便宜。
 
③NAS设备可用于托管应用程序,易于访问。
 
④NAS设备可自动创建业务数据的本地存储备份。
 
⑤NAS设备简化了多个用户之间的文件共享和协作。
 
(2)劣势
 
①NAS依赖于LAN,当LAN发生故障时,NAS也会发生故障。
 
②NAS设备供应商要求用户选择他们自己的应用程序而不是选择任何第三方软件。使用NAS设备时,您只能使用在NAS操作系统上下载的应用程序。
 
③NAS会消耗大量宽带,因此会影响计算机网络的速度。
 
④NAS在云端缺乏安全性,如供应商安全补丁更新不及时或用户未采用身份验证系统,则黑客可以轻而易举的获取用户资料甚至植入木马。
 
什么是服务器及服务器的优劣势?
 
服务器是一种高性能设备,用于处理需求并通过本地网络或Internet将数据传送到其他计算机。服务器通常配置有额外的内存处理和存储容量,以配合大量用户的需求。
 
(1)优势
 
①服务器能够在PC端上存储大量数据,留出充足的空间,还能够提供更强大的处理能力。
 
②不局限您使用何种应用程序,因为服务器允许安装第三方软件。
 
③服务器具有更可靠、更安全的基础构架,能够内置防火墙,可保护业务数据。
 
(2)劣势
 
①因为服务器是24小时不间断的开机运行,因此服务器需要进行定期维护。
 
②服务器操作系统通常要求公司购买服务器许可证。
 
③服务器需要更大功率,并且比NAS设备更昂贵。
 
④服务器安装需要更长的时间来实现,并需要具有专业知识的人来进行管理。
 
NAS和服务器那个更适合您?
 
NAS设备和服务器都提供了文件共享、数据存储等作用。在NAS与服务器之间进行选择时,您可以从以下几个方面来考虑哪一个更适合您的需求。
 
(1)成本
 
您的预算是最基本的考虑因素,因为服务器比NAS设备贵得多。除了设备本身的价格外,服务器费用还可能包括更高的功耗,更多的冷却费以及服务器许可费。
 
(2)空间
 
服务器比NAS设备大得多,因此服务器不适用于空间有限的办公应用。相比之下,NAS设备是便携式的、易于移动,因此更有利于连接到中小型企业(SMB)中的路由器或交换机。
 
(3)安全
 
NAS设备易受环境因素影响,易于拾取和被盗,而服务器则具有更高的安全性,其增强型的基础架构与内置防火墙等构造,能更好的保护您的业务数据。
 
(4)可扩展性
 
在NAS与服务器之间建立数据存储选项时,可扩展性是主要驱动因素之一。NAS设备的可扩展性不高,因为您只能使用NAS的驱动器笼。相比之下,服务器的网络架构使管理员能够在扩展或横向扩展配置中扩展网络容量。因此,如果您计划安装很多应用程序并自定义大多数内容,那么服务器将更为合适。
 
NAS和服务器的优劣势分析
 
您最终选择使用服务器或NAS设备用来存储、备份数据共享文件等,将取决于您可用的空间量,您预算用于保护信息的费用,以及您希望存储的扩展性如何。总而言之,在评估NAS与服务器之间使用的选项时,考虑当前和未来的潜在需求非常重要。
]]>
2018-10-31 14:41:35
<![CDATA[北京地区双11促销:827007-AA1,HPE DL388 Gen9 E5-2620V4 ]]> http://www.itsto.com//news/1646.html HP ProLiant DL388 Gen9(827007-AA1)是惠普服务器中的旗舰机型,是目前业界三大主流机型之一,目前【慧点数码】答谢新老用户,北京地区特推出该机型的特惠活动;这款2U机架式服务器搭载1颗 英特尔至强 E5-2620V4(八核 2.1GHz,20MB共享三级缓存,85W)的处理器,拥有出色的多任务和数据处理能力,最高可支持DDR4规格内存24条和8块2.5英寸硬盘槽位(最高支持26排位),为该机提供了更强的性能支持。最近该机主机标配 正以 12800.00 的价格在北京地区直接客户进行促销,并提供上门安装及调试服务(含上架及操作系统的免费安装服务


HPE DL388 Gen9 E5-2620V4(827007-AA1) 主机主要技术参数如下:

 

CPU:标配1个英特尔 至强 处理器 E5-2620v4 (八核 2.1GHz,20MB共享三级缓存,85W) 可支持最大2个处理器;
托架:标配两个Smart Socket 智能CPU托架;
内存:标配16GB (1x16GB) DDR4-2400 智能内存, 最大支持24个DDR4内存插槽;
阵列:标配1个HP Smart Array P440ar 智能SAS阵列控制器, 2G FBWC缓存, 支持RAID 0/1/5/6;
管理:主板集成 iLO Management Engine (iLO4)远程管理芯片(标配含独立管理端口);
插槽:3个 PCIe 插槽;
硬盘:标配8 个SAS  2.5英寸小尺寸(Smart Drive)硬盘槽位(标配8个可用, 可选升级至16或24个SFF硬盘槽位);
网络:标配4端口千兆网络适配器;
电源:标配1个500W通用插槽热插拔高效铂金电源(94%转化率),可选冗余;
导轨:标配便捷滑动安装导轨;
光驱:可选内置光驱(通过光驱扩展笼,24 SFF时不可选);
外形:2U高度 机架式服务器;
保修:3年7*24,4小时响应

[活动价格] 12800.00
[活动期限] 即日起至2018年11月15日前 此价格有效
[联系电话] 138-0126-0288
[联 系 人] 陈经理
[联系地址] 北京市海淀区中关村东路8号东升大厦C座211室
]]>
2018-10-29 12:13:34
<![CDATA[看NVIDIA GPU怎样让图像和动画“活”起来?]]> http://www.itsto.com//news/1645.html Dabarti Studio于2009年成立,旨在制作高品质的CGI静图和动画,其大多数作品都通过Shutterstock和Getty Images等免版税图库代理公司销售。Dabarti的业务范畴还包括定制CGI静图和动画的创作、合成和调色,以及现场服务和VFX特效指导。

借助NVIDIA GPU,Dabarti Studio释放了创造力与生产力,速度、品质和盈利能力皆显著提高。
 
技术限制影响Dabarti竞争力
 
Dabarti制作的CGI静图和动画主要投放于免版税市场,该市场竞争激烈,艺术家和代理公司为吸引和留住客户各显神通,而精良的制作正是留住客户的关键。
 
“早期我们依靠基于CPU的渲染。这种渲染虽然有效,但为了做到面面俱到我们不得不来回折腾,在此过程中免不了许多尝试与出错,因为我们必须在完成一些工作后等待渲染,做出更改,然后以非交互式方式按需重复操作。”Dabarti创始人兼创意总监Tomasz Wyszolmirski解释道。
 
部署NVIDIA GPU实现效率飞跃
 
NVIDIA Maxwell GPU重新点燃了Dabarti使用GPU渲染的希望。2015年1月,Dabarti Studio在现有的工作站中安装并测试完NVIDIA GPU。
 
对于产品级渲染,他们构建了有四块NVIDIA GPU显卡的渲染服务器,还迁移到V-Ray GPU,以便实时查看物体、材质和光线的更新效果。
 
Dabarti还采用了新上市的NVIDIA卡。当前的工作站使用NVIDIA Pascal架构的GPU显卡处理渲染问题,而其当前的渲染服务器配备了四块NVIDIA GPU显卡,且新工作站使用了两块NVIDIA Quadro GP100 GPU。使用两块支持NVIDIA NVLink的NVIDIA Quadro GP100 GPU后,Dabarti可以轻松处理超大型场景。
 
Wyszolmirski表示:“在让软件按我们希望的方式运行时,出现了一些小问题,此外我们还必须考虑新的工作流程。即便如此,我们还是发现速度、交互性和真实感随即出现质的飞跃。例如,工作流程速度提高了4-6倍…… 而且这还只是个开端。我们还发现,与竞争性产品相比,NVIDIA GPU的速度要快三倍。”
 
NVIDIA GPU提高速度、品质和盈利
 
GPU渲染改变了工作流程,用户能够以交互方式看到效果,而无需像使用CPU渲染一样耗时等待。这种实时反馈提高了品质和真实感,同时缩减了时间和成本。
 
例如,使用CPU渲染动画时,每帧成本为40美分,而使用GPU渲染时,每帧成本仅需10美分。这是因为与CPU渲染相比,GPU渲染的场景设置时间缩减了60-70%,而速度提高了4-6倍。
 
“使用NVIDIA Quadro GP100 GPU后,我们可以完全自由地专注于创作,不必担心系统反应不过来。此渲染方法显著提高了我们的画质,客户们都注意到了这个变化。我们发现收益增加了30-40%,除了现有的免版税工作以外,我们接到的客户项目也越来越多。收益增加,成本降低,这意味着我们的利润更丰厚。客户青睐我们的作品,而我们则为收益感到高兴。”Wyszolmirski最后总结说道。
]]>
2018-10-23 15:43:41
<![CDATA[H3C聚焦五大场景,发布10款服务器新品]]> http://www.itsto.com//news/1644.html 2018年10月18日——以“智计算,启未来”为主题的2018新华三服务器新品发布会在北京举行。围绕混合IT、人工智能、大数据、高性能计算,以及智能边缘五大应用场景,紫光旗下新华三集团(以下简称新华三)发布了十款服务器新品。针对目前用户的主要需求和痛点,新华三服务器系列新品通过对这些应用场景进行细致的需求分析与设计优化,在表现更好性能的同时大幅提升运维效率并有效降低服务器TCO,助力企业实现管理和业务的数字化转型。
 
新华三打造计算新格局
 
在数字化时代,企业的发展更多地被数据与应用驱动。通过各类数据和应用,企业可将自身拥有的多种IT架构与产品生产及最终用户身边的各类智能终端和传感器充分连接起来,实现更深入和有效的交流,从而获得更强的业务创新力与掌控力。
 
因此,新华三跳出了传统的基于硬件平台更新的服务器研发思路,创新地将应用场景中所包含的需求点作为服务器研发的核心目标,从而让产品可以更好地与业务和应用契合,促进数据流通。通过不同场景中的IT升级促进企业整体的数字化转型。
 
新华三集团首席技术官尤学军表示:基于数字化解决方案的八大能力,新华三创新地为百行百业以及城市管理者定制了高度智能化、自动化的城市数字大脑。此次新华三带来的十款服务器产品不仅是新华三最新的研发成果,更是新华三全新数字城市大脑解决方案的重要基础架构。通过不断的产品及解决方案迭代,新华三城市数字大脑可以有效实现城市内、城市间的行业资源整合与协同发展,描绘出数字经济的美好未来。
 
5大场景聚焦,开启智慧计算新时代
 
场景一:混合IT
 
在典型的混合IT应用场景中,新华三推出了H3C UniServer智能塑合刀片服务器B16000以及采用AMD处理器平台的H3C UniServer R4950 G3/HPE ProLiant DL325 Gen10服务器。智能塑合刀片产品可以在保证系统架构高性能、灵活性、可靠性的情况下大幅降低系统部署难度,提高运维效率,而两款搭载最新AMD处理器的机架式产品则可以在大规模虚拟化应用中提供更多物理核心及更低的TCO。
 
场景二:人工智能
 
针对目前最火热的人工智能应用场景,新华三带来了H3C UniServer R5200及HPE Apollo 6500 Gen10两款新品。前者可以提供10块双宽GPU的支持,为人工智能应用带来更高计算密度,后者则集成了先进的NVLink互联总线,以实现更高的效率。
 
场景三:大数据
 
在大数据场景中,新华三带来了全新自研产品H3C UniServer R4300 G3,可以在标准4U机箱内提供超过600TB的存储容量及2个100Gb网络接口并支持同时安装8块NVIDIA Tesla P4计算卡,让海量数据不再无处安家,并且可以被迅速处理。
 
场景四:高性能计算
 
高性能计算是目前服务器应用的最高端形态之一,是科研、生物制药、高端制造等重点行业离不开的生产工具。但目前的各类超级计算机却面临着严重的能效问题,甚至限制了超算性能的进一步提升。新华三此次为中国市场带来的HPE Apollo 70服务器则以高能效的ARM架构处理器为核心,可以有效降低超算能耗,是最新技术结晶和超算未来的主流发展方向之一。
 
场景五:智能边缘
 
在智能边缘场景中,新华三则为中国市场带来了业界首款边缘计算节点HPE EL1000和EL4000两款产品。通过先进的设计理念和制造工艺,两款服务器不仅实现了体积的微型化,更能在适应恶劣工况的条件下提供强大性能、管理及无线连接能力;能够让数据在边缘和生产端被有效汇聚和处理,降低整体网络压力,提升IT效率。
 
新华三集团工业标准服务器产品部总经理刘宏程在发布会上表示: 场景化让新华三更贴近用户的实际使用需求,降低产品门槛,并让产品在数字化转型过程中发挥更大的作用和价值。另一方面,人工智能技术能够将用户从繁琐而重复的劳动中解放出来,让用户充分拥抱业务和创新。通过两种理念相结合,新华三致力于创造出全新的计算产品,引领计算格局的升级。
 
智计算,启未来
 
通过AI技术的广泛应用,新华三大幅提升了服务器的应用体验,降低了企业的IT运维压力,实现了计算的智慧;通过场景化的产品研发思路,新华三让服务器产品特性更贴近实际业务,让企业以业务升级应对未来趋势。
 
新华三集团副总裁、IT产品部总经理陈振宽表示:新华三服务器在坚持高效、敏捷、安全、品质四大独特优势的同时,通过引入AI技术和场景化的研发模式实现了产品的更快更新和更精准定位,从而帮助企业更有效的应对业务变革,并完成数字化转型。
]]>
2018-10-23 14:39:02
<![CDATA[北京地区超值促销 HP DL388 Gen9 服务器 10800.00]]> http://www.itsto.com//news/1643.html HP ProLiant DL388 Gen9(827006-AA1)是惠普服务器中的旗舰机型,是目前业界三大主流机型之一,目前【慧点数码】答谢新老用户,北京地区特推出该机型的特惠活动;这款2U机架式服务器搭载1颗 英特尔至强 E5-2609V4(八核 1.7GHz,20MB共享三级缓存,85W)的处理器,拥有出色的多任务和数据处理能力,最高可支持DDR4规格内存24条和8块2.5英寸硬盘槽位(最高支持26排位),为该机提供了更强的性能支持。最近该机主机标配 正以 10800.00 的价格在北京地区直接客户进行促销,并提供上门安装及调试服务(含上架及操作系统的免费安装服务
 
技术参数如下:
 
CPU: 标配1个英特尔 至强 处理器 E5-2609v4 (八核 1.7GHz,20MB共享三级缓存,85W) 可支持最大2个处理器;
托架:标配两个Smart Socket 智能CPU托架;
内存:标配16GB (1x16GB) DDR4-2400 智能内存, 最大支持24个DDR4内存插槽;
阵列:标配1个HP Smart Array P440ar 智能SAS阵列控制器, 2G FBWC缓存, 支持RAID 0/1/5/6;
管理:主板集成 iLO Management Engine (iLO4)远程管理芯片(标配含独立管理端口);
插槽:3个 PCIe 插槽;
硬盘:标配8 个SAS  2.5英寸小尺寸(Smart Drive)硬盘槽位(标配8个可用, 可选升级至16或24个SFF硬盘槽位);
网络:标配4端口千兆网络适配器;
电源:标配1个500W通用插槽热插拔高效铂金电源(94%转化率),可选冗余;
导轨:标配便捷滑动安装导轨;
光驱:可选内置光驱(通过光驱扩展笼,24 SFF时不可选);
外形:2U高度 机架式服务器;
保修:3年7*24,4小时响应
 
 
       [活动价格] 10800.00
 
  [活动期限] 即日起至2018年11月15日前 此价格有效
 
  [联系电话] 138-0126-0288
 
  [联 系 人] 陈经理
 
  [联系地址] 北京市海淀区中关村东路8号东升大厦C座211室
]]>
2018-10-22 14:48:40
<![CDATA[双路机架服务器产品9月份导购,价格指导]]> http://www.itsto.com//news/1642.html        9月底,HPE和联想产品价格出现小幅下降,其他品牌如戴尔、浪潮和中科曙光各厂商的机型价格稳定;在型号方面,处理均支持的v4/v5系列;机型变化不大。
 
  一、调查机型
 
  主要机型有惠普的DL360 Gen10和DL380 Gen10;IBM的x3550M5和 x3650M5;戴尔有R430、R530、R630、R730;联想的型号RD350、RD450、 RD550、RD650;浪潮的NF5170M4、NF5180M5、NF5240M4、NF5270M4和NF5280M5。中科曙光的I410-G20、I420-G20、I610-G30和I620-G30。
 
  二、调查准备
 
  推荐的询价方法有,可以对惠普和戴尔产品采用电话询价法,联想和浪潮的两大厂商的产品采用邮件和电话询价相结合方式。
 
  三、市场价格
 
  1. HPE:两款产品价格下降
 
  9月底,HPE的两款主流产品DL60 Gen9和DL80 Gen9,价格有所下降。市场中有货的是Gen10系列产品,具体如下:
 
  DL360 Gen10服务器采用工业标准技术,支持英特尔最新Xeon 可扩展处理器家族,内核多达28个;全新HPE DDR4 2666 MT/s智能内存的扩展能力高达3TB;最多支持12根永久性内存,提供192GB的扩展容量;能够支持多达10块NVMe SSD;1U空间内无与伦比的可扩展性设计,最多3个PCIe 3.0 卡槽。 其中,监控的一款DL360G10 E5-2603v5 1P 8G CN Svr/8 SFF/1*E5-2603v3/1*8G 2133内存/H240ar SAS机型/1*500W铂金/4*1G网卡/Easy install导轨,市场价格降至13,000~13,500元。
 
  DL380 Gen10服务器拥有一个可灵活扩展的机箱,提供新的HPE模块化硬盘背板作为可配置选件,支持最多30个2.5"小盘,19个3.5"大盘,或者20个NVMe硬盘选件,同时支持最多3个双宽GPU。本期,监测的一款配置是Gen10-2603v5/1*8G 2133//2G FBWC/1*500W PT/8SFF,市场价格降至14,000~14,600元。
 
  2. 联想System X系列:x3550M5和X3650M5产品价格下降
 
  联想的System X系列机型,双路机架服务器中有两款产品,即x3550M5和x3650M5。x3550M5系列中一款是5463i01,配置是x3550 M5,1xE5-2603v4,6C 1.6G,2x8GB DDR4, 4x2.5"盘位,1x300GB 10K SAS, M1215 Raid 0,1, 550W白金,可选光驱,价格降至13,500~14,000元;X3650M5系列中的5462I05,价格降至14,000~14,800元。
 
  3. 戴尔: R430和R630产品价格稳定
 
  9月底,戴尔多款产品价格保持稳定,包含双路机架产品包含R430、R530、R630和R730四款。
 
  具体情况如下,本期选择监测的机型有四款,分别是R430,配置是至强六核E5-2603 V5(1.6GHz)/4G/300G(SAS 15K)/H330/单电450W/DVDRW/3年上门服务(非热插拔),价格在9,000元左右。R530,配置是至强六核E5-2603 V5(1.6GHz)/4G/300G(SAS 15K)/H330/单电450W/8背板/DVDRW/3年上门服务(热插拔),价格在9,500元左右;R630,配置是至强六核E5-2603 V5(1.6GHz)/4G/300G(SAS 10K)/H330/单电495W/dvdrw/8背板/3年7*24(热插拔),价格为12,500元左右;R730,配置是至强六核E5-2603 V5(1.6GHz)/4G/300G(SAS 15K)/H330/单电495W/dvdrw/8背板/3年7*24(热插拔),价格为13,300元左右。
 
  4. 联想:RD550价格稳定
 
  9月底,联想的三款产品RD550的价格保持稳定
 
  具体情况是:1U机架RD350处理器采用六核E5-2600 v4,内存最大扩展至192GB,硬盘最大可拓展到16TB存储空间。渠道中有货的是E5-2609-V4 /1*4G/1*1T SATA(3.5寸热插拔)/R300 RAID0/DVDRW/550W单电源/2+1千兆网卡/无键鼠/有导轨,价格在9,300~9,800元。
 
  RD450是继承Think基因高品质特性的,全新一代联想企业级存储优化服务器。凭借其高存储密度,灵活的扩展能力,以及低投入高回报等特点,特别适合于教育、医疗、互联网以及中小企业的海量数据共享,和基础企业级应用。监测的一款配置是E5-2609-V4/1*4G/1*1T SATA(3.5寸热插拔)/R300 RAID1/DVDRW/800W单电源/2+1千兆网卡/无键鼠/有导轨,本期价格在10,500~11,000元左右。
 
  RD550是一款高能效,计算密集型两路机架服务器,配置是E5-2609 V4GB*2 1600 RDIMM/1TB SATA,价格在12,000~12,500元左右;
 
  RD650系列是替代RD640系列,最大支持2颗处理器,20个内存插槽,最多支持8块3.5寸热插拔硬盘或16块2.5寸热插拔硬盘。配置是E5-2609 V4GB*2 1600 RDIMM/1TB SATA 7.2K 3.5(企业级)*2(8背板),本期价格稳定在13,800元左右。
 
  5. 浪潮:多款机型价格维持稳定
 
  9月底,浪潮的NF5180M5和NF5240M4机型价格稳定;NF5280M5保持稳定。具体情况如下:
 
  NF5170M4是一款适用于高密度计算机环境,对空间要求较高 ,有密集部署需求的客户,它兼备高集成度与高密度的新一代1U双路机架产品,在有限空间内提供了多种网卡和存储控制器集成方案。本期,监测的一款配置是E5-2609 V4/8G /3.5" 1TB SAS/1000M*2/单电/无光驱/导轨,价格在12,000~12,500元。
 
  NF5180M5是浪潮基于全新数据中心及应用优化的1U双路机架高端产品。该产品凭借巧具匠心的设计,在1U的空间内完美地展现了高性能与高密度特性,是企业级应用的最佳选择。本期监测的是E5-2620V4*1/ 8G DDR4/ 1万转2.5"300G SAS*2/8×HSB/ 1000M*2/双电源/标配导轨无光驱,价格在13,800元左右。
 
  另一款NF5280M5,配置是E5-2620(2.0GHz)V4/8G DDR3/1万转2.5"300G SAS*2/1000M*2/双电源/SLIM DVDRW光驱、导轨,市场价格在15,000~15,500元。
 
  NF5240M4中一款配置是E5-2420(1.90G)v4/8GDDR3/2.5"300G SAS*2/1000M*2/单电/光驱导轨,价格降为13,500~14,000元;NF5280M5的一款,E5-2620V4(2.0GHz)/8G DDR3/1万转2.5"300G SAS*2/1000M*2/双电源/SLIM DVDRW光驱、导轨,市场价格为14,000~14,500元。
 
  5. 中科曙光 :多款产品价格稳定
 
  9月底,中科曙光的量款双路机架服务器,价格小幅上涨。处理器可以支持最新的v4和v5。具体情况是, I410-G20是一款面向小型数据库、企业信息化、网络游戏、WEB搜索、文件服务、VOD、Mail的应用需求;目标客户是,适合对高性能, 高能效, 低成本的大规模部署有需求的行业客户。可以支持Intel Xeon E5-2600v4系列多核处理器,8根内存、4块硬盘,本期价格上涨至12,800元左右,其配置是XE5-2609V4/4G/SAS/300G10K(2.5吋)×1/超薄DVD-RW。
 
  I420-G20是一款双路入门级服务器,目标客户是适用于互联网、广电、公安、电信、能源等行业,价格涨至13,500元左右;I610-G30则是一超高密度高性能双路机架服务器,应用于面向小型数据库、企业信息化、网络游戏、WEB搜索、文件服务、VOD、Mail,价格在14,000元左右;I620-G30是一款专为专为复杂软件应用打造的高端双路机架服务器,适用于虚拟化、中型数据库、企业信息化、HPC、网络游戏、WEB搜索、文件服务、VOD、Mail,市场价格在14,500元左右。
]]>
2018-10-15 15:17:55
<![CDATA[英伟达nvidia为加速GPU用于AI训练发布RAPIDS平台]]> http://www.itsto.com//news/1641.html Nvidia今天早些时候推出了一款新的GPU加速平台,该平台能够处理更大量的数据以应对深度学习和机器学习。Nvidia希望借此巩固自己在人工智能方面的领先地位。
 
RAPIDS背后的理念是为企业带来性能提升,从而帮助他们客服依赖于处理大量数据的“高度复杂的业务挑战”,例如预测信用卡欺诈、预测零售库存以及了解消费者购买行为等,Nvidia这样表示。
 
GPU已经成为AI工作负载(如深度学习和机器学习)的必要工具,因为GPU能够提供比常规CPU更强大的处理能力。但Nvidia人工智能基础设施产品负责人Jeffrey Tseng在慕尼黑举行的Nvidia GPU技术大会之前表示,企业仍需要更多处理能力来应对要求最苛刻的工作负载。
 
Tseng表示:“如今的企业正在变得越来越多地以数据为驱动。数据分析和机器学习现在是领先的高性能计算领域,但是我们在使用数据方面遇到了障碍。”
 
开源RAPIDS平台的主要组件是一套CUDA加速库,用于基于GPU的分析、机器学习和数据可视化。 Tseng表示,Nvidia将启用5个最受欢迎的机器学习库并加速自己的GPU。Nvidia称,这样做可以通过更多迭代来优化AI训练,从而提高模型的准确性。
 
Nvidia表示,这些库为数据科学家提供了在GPU上运行整个数据管道所需的工具。RAPIDS平台采用XGBoost机器学习算法,该算法用于在Nvidia DGX-2系统上训练数据模型,结合了16个完全互连GPU硬件的DGX-2,可提供高达2 petaflops的处理能力。结果是,与在CPU系统上进行训练相比,数据科学家可以将深度学习和机器学习算法训练减少50倍。
 
“我们看到,这个新软件平台和我们发布的硬件让训练时间大幅缩减,基础设施成本降低,”Tseng说。
 
Nvidia得到了众多大型科技企业的信任,这些企业都已经开始采用RAPIDS平台,其中就包括数据库巨头Oracle,Oracle通过Nvidia云在其Oracle Cloud Infrastructure上支持RAPIDS。Nvidia表示,Oracle还致力于在Oracle Data Science Cloud上支持RAPIDS平台。
 
另外还有IBM公司,IBM宣布通过IBM Cloud、PowerAI on IBM POWER9、IBM Watson Studio以及Watson Machine Learning服务在私有云、公有云、混合云和多云环境中支持RAPIDS。与此同时,大数据公司Databricks也表示将使用RAPIDS加速Apache Spark工作负载。
 
Databricks联合创始人兼首席技术专家Matei Zaharia表示:“我们有多个正在进行的项目可以更好地将Spark与原生加速器集成,包括Apache Arrow支持和使用Project Hydrogen进行GPU调度。我们相信RAPIDS是一个令人兴奋的新机会,可以扩展客户的数据科学和人工智能工作负载。”
 
Nvidia表示,HPE、思科、戴尔和联想等厂商也将在自己的系统上支持RAPIDS。
 
Moor Insights&Strategy分析师Patrick Moorhead表示,Nvidia通过RAPIDS试图让那些对运行AI工作负载感兴趣的企业更容易访问GPU。
 
Moorhead表示:“Nvidia在获得AWS和Azure这样的超大规模数据中心厂商新任将深度学习和机器学习整合到他们的工作流方面取得了很大的成功。RAPIDS让企业更好地使用那些和IBM、HPE等厂商更容易实现Nvidia加速所使用的相同的功能。”
 
Constellation Research首席分析师兼副总裁Holger Mueller表示,如果能够做到这一点,Nvidia未来几年将会很好地主导市场上的人工智能工作负载。他说这一切都是为了创造出色的硬件和软件组合以优化加速这些工作负载, Nvidia RAPIDS平台是做到这一点的最好成果之一。
 
Mueller说:“从硬件方面看,对于Nvidia来说很明显它必须赢得开发人员和数据科学家的心,打造一个广泛采用的软件平台。RAPIDS是这一策略的一次重大尝试,但我们必须等待,看看开发人员、数据科学家以及最重要的CxO,他们是否能够对下一代应用平台做出决策。”
]]>
2018-10-15 14:23:27
<![CDATA[零距离体验NVIDIA DGX-1 AI 超级计算机]]> http://www.itsto.com//news/1640.html 深度学习的快速发展正在给 AI 领域以及传统产业带来巨大的改变。各个行业的数据科学家要借助深度学习和数据分析来获取洞见、加速创新,这些都有赖于出色的计算性能,而GPU技术是提供通往 AI 和深度学习的更快途径。
 
此外,AI 和深度学习要求在软件工程方面投入大量精力。这项投资可能会导致您的项目延误几个月,因为您需要集成复杂的组件及软件堆栈,其中包括框架、库和驱动程序。
 
NVIDIA DGX-1 通过开箱即用的解决方案来加快实施您的计划,如此一来,您可以在几小时而非数月内获得见解。借助 DGX-1,再加上集成式 NVIDIA 深度学习软件堆栈,您只需开启电源,即可开始工作。现在,您只需短短一天时间即可开始深度学习训练,而不必花费数月来集成和配置软硬件以及进行错误排查。
 
在软件方面,目前已有可以大规模运行深度学习的 DGX-1 软件。其主要目标是让从业者能够在 DGX-1 上部署深度学习框架和应用程序,同时将设置工作减至最少。该平台软件的设计理念为最大限度地减少服务器上安装的操作系统和驱动程序,并通过由 NVIDIA 维护的 DGX Container Registry在 Docker 容器内配置全部应用程序和SDK 软件。

 
NVIDIA DGX-1 简介
 
1、通往深度学习的更快路径
 
NVIDIA DGX-1 通过开箱即用的解决方案来加快实施您的计划,如此一来,您可以在几小时而非数月内获得见解。借助 DGX-1再加上集成式 NVIDIA 深度学习软件堆栈,您只需开启电源,即可开始工作。现在,您只需短短一天时间即可开始深度学习训练,而不必花费数月来集成和配置软硬件以及进行错误排查。
 
2、强大组件
 
NVIDIA DGX-1 发挥出了最新NVIDIA Tesla V100 GPU 加速器的全部潜力,包括下一代 NVIDIA NVLink 和 Tensor 核心架构。相比其他基于 GPU 的系统,DGX-1 凭借其注重性能的深度学习软件堆栈,将训练速度提升高达三倍。
 
1)NVIDIA Tesla V100GPU 加速器
 
采用专为高性能计算及深度学习设计的 NVIDIA 首款 Tensor Core 技术 GPU 架构,借助 32GB 显存针对 AI 进行优化。
 
2)四路 EDR IB
 
不仅拥有高带宽和低延迟,且总通信传输速率达到 800Gb/s。
 
3)INTEL XEON CPU
 
用于启动、存储管理和深度学习框架协调。
 
4)下一代 NVIDIA NVLink技术
 
每个 Tesla V100 拥有 6 个 NVLink 连接,分别具有 50Gb/s 的双向带宽,双向总带宽高达 300Gb/s。
 
3、深度学习训练速度提高 140 倍
 
相较于只使用CPU的服务器,深度学习训练速度得到了大幅度提升。
]]>
2018-09-27 17:10:45
<![CDATA[英伟达Nvidia发布用于AI驱动的高速数据中心平台]]> http://www.itsto.com//news/1639.html Nvidia的GPU芯片已经成为机器学习蓬勃发展的基础,机器学习利用模拟大脑工作方式的软件,让计算机能够独立学习。GPU可以并行运行很多任务,这使其在语音和图像识别、电影推荐和自动驾驶汽车领域实现了一系列突破。
 
近日,Nvidia对其机器学习产品进行升级,推出一款新的数据中心芯片和软件,旨在加速这些服务并实现新的服务,例如人与机器之间更自然的语言交互。
 
Nvidia发布用于AI驱动服务的高速数据中心平台
 
特别是,这个名为TensorRT Hyperscale Inference Platform的平台专注于“推理”,也就是运行深度学习神经网络模型的过程。该模型基于得到的新数据来推断任务以及执行任务。与训练模型(通常需要更多处理能力)不同,推理通常要使用内部有标准CPU的服务器。
 
本周四在东京举行的Nvidia GPU技术大会上,Nvidia首席执行官黄仁勋及其高管宣布推出了这几款新产品。首先,他发布了名为Tesla T4的小型低功耗芯片,该芯片采用所谓的Turing Tensor Core设计用于推理。作为当前特斯拉P4的下一代,T4拥有2560个核心,每秒可运行高达260万亿次操作。
 
黄仁勋还宣布对TensorRT软件进行更新,该软件可让处理速度比CPU快40倍,它包括一个TensorRT 5推理优化器和Tensor RT推理服务器,一个软件“容器”中的微服务,可以运行主流的人工智能软件框架,并与容器编排器Kubernetes和Docker集成,后者可在Nvidia的GPU Cloud上使用。
 
Nvidia副总裁、加速业务总经理Ian Buck解释说,目前数据中心内有用于各种任务的软件,如图像识别、搜索和自然语言处理,因此效率不高。他说,Nvidia新推出的推理平台,让应用可以使用相同的架构和软件加速应用。例如,Google将把T4添加到其公有云中,主流服务器制造商表示他们也会使用这个平台。
 
例如Nvidia称,使用GPU进行推理已经帮助微软的Bing搜索引擎将延迟提高了60倍,SAP为广告客户提供的实时品牌影响信息提高了40倍。
 
在这次活动上,Nvidia还宣布推出了号称第一个用于自主机器(从汽车到机器人再到无人机)的AI计算平台。具体来说,有一款新的AGX嵌入式AI HPC系列服务器,该系列产品的部分包括用于数据中心的DGX系列和用于所谓的超大规模数据中心(如Google和Facebook)的HGX系列。
 
另一个新产品是Jetson AGX Xavier,这是Nvidia自主机器副总裁Rob Csongor所说的开发套件,是第一台用于机器人等应用的AI计算机。同时公布的合作伙伴包括建筑领域的Komatsu公司、自动船用和无人机车辆领域的Yamaha Motor公司以及工厂自动化视觉系统领域的佳能公司。Csongor说:“这是我们下一个大的市场,我们相信这将是变革性的。”
 
Nvidia还发布了一个关于AI推理市场看似不合理的数字:未来5年200亿美元。这可能有助于Nvidia在未来一段时间内继续保持长期好于预期的盈利结果。
]]>
2018-09-17 11:11:21
<![CDATA[NVIDIA DGX-2,应对多种复杂人工智能挑战]]> http://www.itsto.com//news/1638.html NVIDIA DGX-2 是 NVIDIA 首款 2-petaFLOPS 系统,它整合了 16 个完全互联的 GPU,使深度学习性能提升 10 倍,突破了人工智能速度和规模的障碍。它采用 NVIDIA® DGX™ 软件和基于 NVIDIA NVSwitch 技术构建的可扩展架构,可以帮您应对众多复杂的人工智能挑战.
 
非同一般的计算能力造就出众的训练性能
 
人工智能日益复杂,因而对计算能力的要求比以往更高。NVIDIA® DGX-2 集 16 个 NVIDIA 家族最先进的 GPU 的计算能力于一身,可以加速实现 之前无法训练的新人工智能模型类型 。此外,它还具有突破性的 GPU 可扩展性,因此您可在单一节点上训练规模扩大 4 倍的模型,而且其性能达到 8 GPU 系统的 10 倍。

 
革命性的人工智能网络架构
 
通过使用 DGX-2,模型的复杂性和规模再也不受传统架构局限性的限制。现在,您可以利用 NVIDIA NVSwitch 网络架构进行模型并行训练。NVIDIA 首款 2 petaFLOPS GPU 加速器采用的正是这种创新技术,其 GPU 间带宽高达 2.4 TB/s,性能比前代系统提升了 24 倍,并且问题解决速度提高了 5 倍。
 
将人工智能规模提升至全新水平的最快途径
 
现代企业需要快速部署人工智能功能以满足业务需求。DGX-2 提供随时可用的模块化解决方案,打造扩展人工智能的最快途径。凭借用于构建大型深度学习计算集群的灵活网络选项,再结合可在共享基础设施环境中改进用户和工作负载隔离的安全多租户功能,DGX-2 使人工智能扩展得以简化,从而加快了扩展速度。
 
始终运行的企业级人工智能基础设施
 
人工智能对您的业务而言非常关键,因此,您需要专为高可靠性、可用性和可维护性 (RAS) 而设计的平台来为您保驾护航。DGX-2 专为 RAS 而打造,可以减少计划外停机时间,简化可维护性,并保持运行连续性。DGX-2 是一款企业级产品,依托 NVIDIA 专业知识,专为满足严格的全天候运行要求而构建,旨在使重要的人工智能工作保持正常运行。

NVIDIA DGX-2 规格参数
]]>
2018-09-12 14:58:33
<![CDATA[8月份双路塔式服务器价格、选购指导]]> http://www.itsto.com//news/1637.html        8月中下旬,戴尔的两款产品价格上涨,其他品牌机型的价格稳定。
 
  一、调查机型
 
  双路塔式服务器数量,在市场中并不比机架的多。主要厂商的代表机型有:惠普的ML350 Gen10;戴尔的T440和T640;联想的TD350和X系列的x3500M5;浪潮NP5570M4。
 
  二、调查范围
 
  推荐的询价方法有,可以对惠普和戴尔产品采用电话询价法,联想、浪潮国内厂商的产品,可采用邮件和电话询价相结合方式。
 
  三、主机市场价格
 
  1. HPE: ML 350en10 服务器产品价格稳定
 
  双路塔式服务器新推出Gen 10新一代服务器,ML350 Gen10服务器支持多达2个至强可扩展处理器,高达24个DIMM插槽,支持2600MT/秒的HPE DDR4 SmartMemory。最多支持4块图形处理单元 (GPU),以加速虚拟桌面解决方案 (VDI) 以及金融服务、监控和安全、教育和科研、零售和医学成像方面的机器学习的性能。
 
  ML350Gen10,可以支持至强E5-266v4处理器,在惠普的双路塔式服务器中,属于目前的主流机型,在本期的监测中,配置设定为E5-2609v4/1*8GB 2133/8LFF/B140i/NC331i/500W PT,市场价格本期在13,800~14,200元。
 
  2. 联想: X3500M5和TD350产品价格稳定
 
  联想的双路服务器有三个系列,其中TinkSystem系列有一款ST550,最大的特点是采用可扩展处理器,可采用Exon 3106。联想System X系列中的X3500M5系列中本期监测一款是5464I05,采用v4处理器,配置是1xE5-2603v3 6C 1.6G,1x8G DDR4, 8X2.5"盘位,该款产品价格在14,000~14,800元。
 
  联想的TD350,采用英特尔至强v4处理器,搭载四核E5-2609 v4 1.9GHz,1*4GB DDR4 2133内存,最大可拓展512GB,存储方面1TB 热插拔SATA 3.5寸硬盘(7200转),最大可拓展到90TB存储空间,4U的机箱,是成长型企业和部门级应用的优化,该款价格稳定在13,200元左右。
 
  3. 戴尔:两款产品的价格小幅上涨
 
  戴尔的双路塔式服务器有两大型号——T440和T640。其中,戴尔的T440,在产品配置上,处理器支持英特尔至强E5-2603 v5 1.7GHz,该系列是一款用于可扩展设计和静音设计的强大双路塔式服务器,提高办公环境中的性能。本期监测的一款是E5-2603v4/4G/300G/DVD/H310/单电/热插拔,本期价格涨至11,300元左右。
 
  另一款升级产品T640,配置是至强六核E5-2603 V5(1.7GHz)/4G/300G(SAS 15K)/H330/单电495W/dvdrw/8背板/3年7*24(热插拔),市场中可以订货,价格上涨为13,500元左右。
 
  5. 浪潮:产品NP5570M4价格稳定
 
  浪潮的NP5570M4的价格保持稳定。这是一款面向部门级应用的双路塔式服务器,具备出色的性能、灵活扩展、稳定可靠等特性。面向教育、医疗、中小企业等客户,适用于小型企业云、远程办公环境它可支持2颗至强E5-2600V3/V4系列处理器和20条DDR4内存,最大可支持1.2TB内存容量。监测的一款型号是E5-2420 V3/V4/6G/300G SAS*2 /单电/双网卡/DVD /RAID 1,市场价格稳定在13,800元左右。
]]>
2018-09-04 15:54:49
<![CDATA[最新NVIDIA的“RTX"显卡将深刻影响VR发展]]> http://www.itsto.com//news/1636.html NVIDIA最新的“RTX”显卡不仅仅是性能的增量步骤,而且是NVIDIA实时渲染方法的重要新方向。RTX卡基于公司的图灵架构,为加速光线跟踪和人工智能的图形铺平了道路,并且还基于“Pascal”架构,为NVIDIA之前的10系列GPU带来了VR特定的增强功能。
 
图灵体系结构引入了两种新型“核心”(用于快速处理特定任务的处理器),这些在以前的GeForce卡中是找不到的:RT核心和张量核心。RT内核旨在加速光线跟踪操作,该模拟可模拟光在场景周围反弹的方式以及与对象的交互。Tensor Core旨在加速张量操作,这对于AI推理很有用,就像神经网络和深度学习一样。
 
这意味着除了通常的基于CUDA的渲染之外,RTX卡还能够将加速光线跟踪和AI处理引入渲染混合,这可以产生一些令人印象深刻的实时反射等。但是,由于更逼真的闪电,超出了获得更好图形的潜力,RTX卡为VR带来了什么?
 
超宽视场头显的多视图渲染
 
在过去几年中,所谓的“单程立体”渲染已经成为渲染VR头戴式立体景观的重要部分,因为每只眼睛需要看到略微不同的场景视图以创建精确的3D视图。单通道立体声允许通过单个渲染通道为两只眼睛渲染场景的几何形状,而不是每只眼睛一次通过。
 
即将推出的超宽FOV头显,如StarVR One,通常使用彼此成角度的显示器,以实现其广阔的视野。在没有失真的情况下渲染(特别是当每个眼睛的视图的内容在每个显示器的扩展的FOV和角度时非常不同时)并不是一项轻松的任务。
 
RTX GPU现在能够进行多视图渲染,NVIDIA称其类似于单通道立体声的下一代版本。多视图渲染可以通过从2到4的单次通过来实现可能的几何投影的数量,从而允许在具有倾斜显示的头显的单次通过中渲染超宽视场。该公司还表示,所有四个投影现在都与位置无关,并且能够沿任何轴移动,这将在未来的耳机中实现更复杂的显示布局。
 
看来,多视图渲染的每个视角也应该能够通过同时多投影(Pascal卡引入的功能)对镜头匹配着色进行分段。
 
Foveated Rendering的可变速率着色
 
在您的外围视图中,您不会注意到更高效渲染的渐变渲染细节已经被讨论多年了,但实际实现在很大程度上依赖于许多当前头显中没有的眼动追踪技术。但是,由于在一系列下一代头显中需要进行眼动跟踪,因此对于有效的渲染渲染方法的需求变得越来越重要。
 
NVIDIA表示,他们的新RTX卡支持一种称为可变速率着色的功能,可以动态调整场景的一部分与另一部分的阴影效果。目前尚不清楚这个功能究竟是如何工作的,但它听起来像是上一个Multi-res Shading功能的下一步,它就像一个静态的渐变渲染解决方案。
 
加速光线跟踪声音模拟
 
事实证明,光线追踪不仅仅涉及光线。光线跟踪还可用于模拟声波在环境中反弹时的复杂交互。正如NVIDIA所指出的,今天VR的许多空间音频实现提供了准确的位置声音,但通常不考虑声音如何与用户周围环境的几何形状相互作用,这会对准确性和沉浸感产生重大影响。
 
NVIDIA在2016年发布了他们的VRWorks音频解决方案,该解决方案可以在GPU上实时模拟声音。通过新的RTX卡中的RT Cores,该公司表示,与前一代产品相比,VRWorks Audio的实施速度提高了6倍。由于VRWorks Audio要求分享GPU的处理能力,新加速的功能可能对开发人员更具吸引力,因为他们可以比以前更多地保留GPU的图形任务功能。
 
VirtualLink
 
当然还有VirtualLink,一种基于USB-C的连接标准。VirtualLink连接器提供四个高速HBR3 DisplayPort通道,一个用于车载摄像头的USB3.1数据通道,以及高达27瓦的功率,所有这些都在一根电缆中。该标准被称为“专为VR而设计”,针对延迟和下一代头显的需求进行了优化。
 
所有转向卡在技术上都支持VirtualLink(包括Quadro卡),但根据制造商的不同,端口可能因卡而异。对于NVIDIA而言,该公司自己的'创始版'版本的2080 Ti,2080和2070已被确认包含在内。
 
上面提到的所有功能(VirtualLink除外)都是NVIDIA VRWorks软件包的一部分,必须由开发人员或游戏引擎开发者专门实现。该公司表示,可变速率着色,多视图渲染和VRWorks音频SDK将于9月份通过VRWorks更新提供给开发人员。
]]>
2018-09-04 15:03:04
<![CDATA[英伟达Jetson Xavier AI芯片亮相WRC 2018世界机器人大会]]> http://www.itsto.com//news/1635.html 在前不久举行的WRC 2018世界机器人大会上,NVIDIA展出了专为机器人设计的芯片Jetson Xavier。同时,NVIDIA高级软件经理李铭博士也向媒体详细介绍了这款芯片的特点,阐述了Jetson Xavier如何推动机器人软硬件技术的发展。
 
NVIDIA Jetson Xavier于今年6月初在2018年台北国际电脑展(COMPUTEX 2018)上首发,NVIDIA将其描述为一台适用于自主机器人的AI计算机。NVIDIA创始人兼首席执行官黄仁勋在发布这款芯片的时候说,这就是未来智能机器人的大脑。在NVIDIA看来,机器人终归是要拥有超强的边缘计算能力,而Jetson Xavier正是为了下一代自主机器打造的AI计算芯片。
 
李铭表示,当前人工智能已经发展到了一个转折点,而GPU芯片可凭借其可变性和超强的计算力以及CUDA平台为AI的发展提供了强有力的支持。现在NVIDIA将GPU带到了机器人领域,将Jetson Xavier打造成未来智能机器人的大脑。
 
专为机器人打造的AI芯片
 
据介绍,Jetson Xavier是NVIDIA单独做过的最长的一个处理器项目,为了打造它,NVIDIA耗费了五年的时间(三年设计、两年筑造),共有超过8000人参与了设计与开发,也是NVIDIA首款专门为机器人设计的产品。
 
Jetson Xavier拥有6种高性能处理器,包括1个Volta Tensor Core GPU、1个8核ARM64 CPU、2个NVDLA深度学习加速器、1个图像处理器、1个视觉处理器和1个视频处理器。这些处理器使其能够同时、且实时地处理数十种算法,以用于传感器处理、测距、定位和绘图、视觉和感知以及路径规划。
 
这样的配置让其能够在30W以下的嵌入式模块中提供相当于一台GPU工作站的性能。Jetson Xavier拥有超过90亿个晶体管,可提供每秒30万亿次操作的深度学习和计算机视觉任务。相较于上一代产品Jetson TX2,Jetson Xavier的能效提升了10倍之多,性能优化了20倍之多。
 
李铭告诉记者,Jetson Xavier专攻自主机器,像机器人手臂、自动化设备与服务型机器人、无人机等,可广泛应用于工业生产线、仓储、物流、零售与农业等多种场景。同时,Jetson Xavier也适用于智慧城市应用程序和便携式医疗设备。
 
NVIDIA为Jetson Xavier的模拟、训练、验证和部署提供了一个工具箱——NVIDIA Isaac机器人软件平台,包括包含API工具包Isaac SDK、智能机器加速应用Isaac IMX以及高度逼真的虚拟仿真环境Isaac Sim。
 
Isaac SDK,一套API和工具,支持开发机器人算法软件及运行时框架。
 
Isaac IMX,Isaac智能机器加速应用,是NVIDIA开发的机器人算法软件的集合。
 
Isaac SIM,提供高度逼真的虚拟仿真环境,具备高保真度,并可以借助Jetson Xavier进行硬件测试。
 
李铭特别指出,Isaac SIM可以在虚拟世界中对机器人进行训练,而不用担心对现实物理世界造成破坏性的影响,比如在训练消防机器人或者其他复杂性环境的工作机器人。NVIDIA希望为机器人产业打造一个端到端的解决方案。
 
黄仁勋也为我们描述了未来智能机器人产业的美好前景,他说,AI是我们这一时代最强大的技术力量。第一阶段人工智能将实现全新的软件自动化水平,从而帮助诸多行业提高生产力;其后,人工智能与传感器和执行器相结合,将成为新一代自主机器的核心。终有一天,数十亿台智能机器人将用于制造、送货上门服务、仓储物流等领域。
]]>
2018-08-31 14:46:49
<![CDATA[NVIDIA英伟达发布新“图灵”架构GPU芯片GTX 20系列显卡]]> http://www.itsto.com//news/1634.html 8月21日早间消息,昨晚英伟达在德国科隆发布了基于图灵架构的新一代显卡RTX家族,这是继GTX10系列之后最新一代的图形显卡。新品引入了光线追踪技术,并且首次搭载DDR6规格显存。
 
命名:用RTX取代GTX
 
就在一周前,英伟达公布了自己的最新显卡架构图灵,同时发布了首款基于图灵架构,并支持光线追踪的Quadro系列专业卡。
 
在此次显卡更新前,NVIDIA GTX 10系游戏显卡已经销售超过三年,新显卡的命名大大出乎意料,跳过之前一直沿用的GTX系列开头,而转向高端市场的“RTX”,这也表明新GPU(图形处理单元)所代表的图形技术的巨大转变。新品命名为RTX2080/2080ti以及RTX 2070。
 
新一代RTX20系显卡使用全新的图灵架构和DDR6规格显存,同时采用了可加速光线追踪的RT Core技术,好处是可以为电脑提供逼真的图片处理效果的同时还可以将AI带入游戏中。英伟达官方称图灵架构光跟踪技术让处理速度为前一代Pascal架构的25倍之多。
 
光线追踪技术有什么好处呢?通过这个演示片段就可以看出来,故事片段中,人物有很自然的动作、复杂的反光面,以及更加复杂的光源设计。这些场景都是提前设置的,而显卡的任务就是把它们还原出来。
 
在这一环节中:单“图灵”GPU做到了45ms的延迟;4张“伏特”架构的V100做到了55ms的延迟;而上一代的“帕斯卡”架构顶级卡,只做到了超过300ms的延迟表现(延迟越少越好)。图灵的威力可见一斑。
 
游戏对于图灵架构光线追踪的支持需要特别优化,英伟达在现场宣布首发就有20多款游戏支持,包括即将发布的《战地5》、《古墓丽影:暗影》、《地铁:离去》(Metro Exodus)等。
 
回顾此前数十年的电脑游戏历史,画质的主线背后,一直都是“三角形”。即尽可能地精细化游戏内部的建模和贴图,让物体尽可能看起来真实。但对于真实世界视觉传递的“必需物”——光,一般因为计算光线太消耗算力,都会采取“投机取巧”的方式。
 
而当黄仁勋说自己“经过10年努力,终于真正解决了实时光线追踪处理”的时候,台下的观众直接响起了热烈的掌声
 
性能:图灵是核心
 
回到这次发布的三款新品,RTX 2080 Ti是图灵游戏显卡的旗舰版,更加适合高端游戏用户。RTX 2080 Ti搭载的是TU-102-300A芯片,拥有4352颗CUDA流处理器内核,显存方面搭载了GDDR6显存,352Bits的显存位宽,这也是Geforce游戏显卡首次搭载GDDR6显存,RTX 2080 Ti的显存容量达到了11GB,频率为14Gbps。供电方面,RTX 2080 Ti采用了12 3相供电,可以说相当豪华。
 
TDP方面,RTX 2080 Ti拥有280W的功率,其中250W为显卡主体功率,而35W为Type-C的功率。扩展方面,RTX 2080 Ti拥有3个DP 1.4接口,HDMI 2.0接口和Type-C接口,其中DVI接口已经和20系显卡告别了。
 
RTX 2080 Ti详细参数
 
作为新一代卡皇GeForce RTX 2080 Ti的Tensor Core,支持110 teraFlops的运算速度,是1080 Ti的10倍。新卡皇的RT Core核心处理能力,依旧是1080 Ti的10倍。
 
RTX2080详细参数
 
面向发烧级玩家的RTX 2080的核心代号为TU104-400A,2944颗流处理器,同样搭载了GDDR6显存,容量为8GB,显存位宽256Bits。
 
RTX 2080拥有250W的功率,其中215W为显卡主体功率,而35W为Type-C的功率。供电方面,RTX 2080采用了8 2相供电,RTX 2080拥有3个DP 1.4接口,HDMI 2.0接口和Type-C接口。
 
除了这两款大家已经知道的显卡之外,英伟达还发布了RTX 2070,拥有2304颗流处理器,8GB GDDR6显存,1410MHz的基准频率,当然这款显卡只是公布一些信息,并没有实品出现。这三款新显卡均采用开放式双风扇设计。
 
在英伟达新一代显卡发布会后,紧跟着几款来自显卡大商的新一代显卡遭到曝光,包括影驰、索泰、七彩虹、耕升都将推出RTX系列显卡新品。
 
售价
 
售价方面,RTX 2080 Ti售价999美元,RTX 2080售价699美元,RTX 2070售价499美元。同时国行版本也已经开始在京东商城预售,RTX 2080 Ti售价9999元,RTX 2080售价6499元。
 
小结:
 
尽管英伟达在AI、自动驾驶等“未来方向”上充满希望,但关键性的营收任务还是来自三个市场:游戏显卡是老大(部分贡献自挖矿)、专业虚拟化之前使用率不高、数据中心因为AI越来越偏向英伟达(目前全球超算前5除了自主架构基本都用了英伟达V100 GPU)。
 
但谁也没想到,英伟达直接使出了一招“一石二鸟”:一方面给游戏市场“赋能”,跟软件商(虚幻引擎、微软)合作,将游戏显示效果送进另一个时代;同时又攻入此前属于CPU的专业影像领域。
 
前者就算不能大幅度拓展市场容量,也将成为存量竞争中的重磅筹码。后者按黄仁勋自己的话来说,将会是一个“2500亿美元”的大市场。
 
在SIGGRAPH 2018现场,国内某动画、电影特效制作方也曾对虎嗅表示:“图灵的确是一个革命性的东西,我们很看好它在游戏和电影两个市场的发展。一方面让游戏的画面愈发接近电影,一方面也将释放电影特效的制作成本,增加更多艺术成分。”
 
在我们还在担心英伟达会被PC游戏市场拖累的时候,黄仁勋似乎早早就想好了应对之策。
]]>
2018-08-23 11:30:24
<![CDATA[Nvidia P4 GPU增加到谷歌云,支持AI和虚拟桌面]]> http://www.itsto.com//news/1633.html 谷歌今天开始在自己的公有云上提供了一个新的图形加速器,以更好的支持人工智能和虚拟桌面工作负载。
 
据悉,谷歌采用的芯片是Nvidia的P4,这让谷歌云平台支持的Nvidia GPU数量增加到4个,而且所有这些都是从2017年2月以来添加的。Nvidia扩展其GPU产品线的步伐反映了企业采用人工智能的速度越来越快。
 
P4的起价为每小时60美分,是4款GPU中价格第二低的。在处理最多4个字节的单精度值时,该芯片可提供5.5 teraflops的性能。
 
Nvidia还为P4配备了8GB GDDR5内存,专门设计用于GPU。片上芯片内存要比普通内存更快,因为让数据更接近GPU核心,从而减少延迟。
 
在人工智能部署方面,谷歌认为基于云的P4主要用于机器学习推理,也就是数据处理神经网络在经过适当训练之后可以在生产环境中做的事情,这是一种完全不同的任务,有时候利用更强大的GPU可以实现更好的性能。
 
P4也适用于虚拟桌面环境。它采用了Grid,这个Nvidia软件可以在多个虚拟机之间分配GPU硬件资源。此外,谷歌还支持合作伙伴Teradici的工具,该工具可以将运行在虚拟机中应用流式传输到员工的本地设备上。
 
谷歌瞄准的第三种场景是视频流。根据Nvidia的说法,该芯片有3个视频处理引擎,可以实时转码多达35个高清流。
 
另外,GPU在谷歌的技术战略中扮演着越来越重要的作用,因此Nvidia也成为谷歌的一个重要合作伙伴。话虽如此,但谷歌并不完全依赖于这家AI处理器的芯片制造商。谷歌还支持Tensor Processing Units,这款内部设计的芯片可定制用于运行神经网络,每个神经网络可提供180 teraflops的巨大计算能力。
]]>
2018-08-08 13:45:25
<![CDATA[英伟达NVIDIA虚拟GPU助力全新教育学习方式]]> http://www.itsto.com//news/1632.html 全新的学习方式的变革
 
现如今,步入高等院校的学生越来越精通技术,且其拥有的移动设备数量也在与日俱增。他们入学时期望自己有机会使用各种工具和图形密集型应用程序,而且此类工具和应用程序的使用体验能够与其在日常生活中所用的工具和应用程序同样出色。能够在任意设备上访问任何应用程序(从 Windows 10 和 Office 办公应用程序到图形密集型工程应用程序),并在团队项目上开展实时无缝协作,这一点对于学习至关重要。
 
但大学一直在努力适应对这些日新月异技术的需求。这些教育机构希望提供全新的学习方式。许多课程都需要使用特定的软件和硬件,这就意味着学生必须在专门的计算机实验室中完成课程作业。这会导致空间资源不足、为后勤工作带来挑战并会产生维护成本。高校也开始认识到在线学习对于获得长远的成功至关重要。这种学习方式不仅可以在不需要更多教室的情况下实现规模化教育,并且能够迎合学生现今期待的学习模式。
 
NVIDIA 虚拟 GPU 构建无边界校园
 
NVIDIA 虚拟 GPU 实现了无边界校园,能够随时在任意设备上经济高效地访问任何应用程序。
 
高校面临的挑战是提供图形密集型应用,以满足学生对自身所有设备的性能期望。此外,就日益增多的端点和复杂的虚拟化环境而言,其管理成本同样具有挑战性。通过在其虚拟桌面基础架构(VDI) 环境中应用 NVIDIA 虚拟 GPU (vGPU) 解决方案,教育机构可以经济高效地提供虚拟工作空间,这些工作空间就相当于当今学生和教职人员使用的物理 PC 和工作站。此外,随着管理、安全和生产力的提升,虚拟GPU 的优势亦十分显著:
 
在任意地点借助任何设备访问教育资源
 
学生可以从任何设备,甚至在廉价的 Chromebook 和平板电脑上访问所有应用程序。无论是访问传统上由校园实验室提供的软件(例如 Autodesk AutoCAD、DassaultSystèmesSOLIDWORKS 和 MathWorks MATLAB),抑或是访问图形密集化程度愈来愈高的Windows 10 和当下的效率应用程序,学生均能获得优质的用户体验。借助 GPU 虚拟化功能,学生可以在宿舍、教室、图书馆甚至校外开展学习活动,同时还可使用具有行业标准的专门应用程序。享有此类灵活性的学生,可选择自己偏爱的设备并按计划完成任务。
 
培养全新的学习方式
 
无论是教授使用在线视频来补充课堂讲授内容,抑或是学生制作视频演示以更清晰地表达想法,频繁借助多媒体的全新学习方式正变得愈加流行。这些方式一度因为过慢而无法供远程用户使用。无论对于何种设备,GPU 虚拟化技术均能通过硬件编码和解码消除 CPU 的工作负载、优化视频性能和扩展性并提供顺畅的用户体验。
 
虚拟化教室和实验室
 
对于任何 IT 部门而言,管理校园内的所有物理设备都是个巨大挑战,更不用说还要为学生自带的所有设备提供支持。应用程序集中于数据中心后,IT 部门可更专注于维护提供给所有设备的虚拟桌面。此外,IT 部门可以轻松管理大规模虚拟化部署,并对机构的基础设施实现端到端监管及进行主动监控。此举不但可以释放 IT 资源以用于其他项目,更节省出物理计算机实验室的空间,以改作新教室之用。
 
推动在线与远程项目的增长
 
在竞争日益激烈的教育大环境中,许多大学开始将自身教学项目扩展至更多远程学生。这类模式的一大挑战在于,需要为远程学生提供在校外完成学业所需要的计算资源。虚拟实验室使得大学可以通过在线和远程项目扩大教学范围,允许学生远程做功课和学习。这些新项目在技术领域上可覆盖更多的学生,并转而带动大学营收增长,使其声名远播。
]]>
2018-08-01 15:51:12
<![CDATA[服务器7月份价格指导,单路机架服务器选购指南]]> http://www.itsto.com//news/1631.html        2018年7月中旬,中科曙光的产品价格上涨,戴尔产品的价格稳中有降。
 
  一、调查机型
 
  单路机架市场中,主流代表机型有:HPE DL120G9和DL20;联想RS260和X3250M6,戴尔的R230和R330,中科曙光的I210-G30和I210-G26。
 
  二、调查范围
 
  本期询价方法,我们对HPE和戴尔产品采用电话询价法。建议用户每周进行电话咨询,可以很好的掌握经销商当期的价格变化。
 
  三、 市场价格
 
  1. HPE: 两款产品的价格稳定
 
  HPE的 ProLiant DL20 Gen9 服务器,可采用英特尔奔腾、酷睿 i3 和 E3-1200v5 处理器,以经济实惠的价格独特地融合了企业级功能。本期监测的一款单路机架型号DL20,采用英特尔至强E3-1200 v5 产品,4个内存插槽,最多4个硬盘插槽,该款新机型已经上市,其中一款配置是E3-1240 v5/8G/1 个 H240 主机总线适配器,价格稳定在7,200元左右,渠道中存有尾货。
 
  另外一款,Gen9系列服务器DL120G9,可以搭载英特尔至强 E5-2600 V3/V4的处理器。 它与传统 1P 服务器相比,DL120 Gen9 服务兼有高性能、冗余性和可扩展性,是中小型企业和大型企业客户的理想选择。本期监测的一款是采用-2603v3的处理器,配置是E5-2603v3 /1*2603v3/1*4GB DDR4千兆网卡/4LFF/1*550W电源,市场价格稳定在8,000元左右。
 
  2. 联想:两款产品价格稳定
 
  联想单路机架服务器——RS260是一款性能优良的入门级服务器,可满足不断增长的业务需求。它采用强大的英特尔处理器以及企业级存储和网络,提供高达12Gbps数据传输速率,与前一代产品相比,其内存容量提高了一倍,内部存储容量增加了33%。RS260是Web托管、电子邮件服务、文件打印服务、视频流以及一系列通用生产力应用的理想选择。监测的一款配置是E3-1220 v6/8GB ECC/1TB SATA非热插拔 3.5寸硬盘/1Gb自适应网卡,本期价格稳定在7,200-7,600元。
 
  联想的X系列服务器,升级新型号X3250M6,在紧凑型1U外形中结合了企业级管理 、高可用性和安全性特性。本期,处理器升级到可支持英特尔至强 E3-1200 v6 处理器系列 , 性能比上一代提升30%。最高配备64GB 2133MHz TruDDR4 UDIMM内存 , 可处理更多工作负载。最多支持四个3.5英寸或八个2.5英寸硬盘/固态硬盘(SSD)。
 
  单路机架的有一款型号X3250M6,在渠道中有六款机型,处理器主要有E3-1240 v5、E3-1230 v5、E3-1220 v6、英特尔酷睿处理器i3 6100和 至强处理器G4400。本期监测的一款机型价格维持稳定。编号是5458-I23,配置是E3-1220v6 / 2*1Gb Nic 8*1Gb FOD / 300W Fixed,价格稳定在8,800元左右。如需要增加2T硬盘,需加1000元。
 
  3. 戴尔:R330产品价格下降
 
  本期,戴尔的R300产品价格下降。具体情况是,单路机架R230是一款U入门级机架式服务器,整合数据并提升应用程序运行速度,监测R230的一款是E3-1220V6/8G/1T/DVD,本期价格稳定在6,400元左右。
 
  另一款产品是R330——入门级单路机架式服务器功能强大且可扩展,并具有高可用性,可提高中小型企业和远程办公室/分支办公室应用程序的运行速度,该款机型采用E3-1200 v6处理器,4个支持DDR4内存的DIMM插槽,2个PCIe 3.0插槽+1个用于内部存储的插槽,监测的一款是E3-1220V6/8G/1T SATA/普通 DVD,本期价格下降为7,300~7,800元。
 
  4. 中科曙光:I210-G30和I210-G26价格上涨
 
  中科曙光的单路机架I210-G30是基于Intel Greenlow平台,面向视频监控,图形处理市场开发的一款1U单路服务器,支持处理器集成显示及最大 4096x2304 60Hz显示分辨率。该款产品支持英特尔至强 E3-1200,4根内存插槽,最大支持2个3.5寸SATA 硬盘。监测选择一款的配置是,E3-1220 V2/ 8G内存/1T SATA 硬盘/DVD,本期价格上涨在7,000左右。
 
  另一款产品是I210-G26,该产品是一款能耗优化型入门级单路机架服务器,主要应用于主要应用:企业信息化、WEB搜索、文件服务、VOD、Mail等;支持英特尔至强 E3-1200 V3系列多核处理器,4条内存插槽;可以支持2个3.5寸/2.5寸SATA硬盘,价格涨至6,400左右。
]]>
2018-07-26 16:35:24
<![CDATA[新华三(H3C)最新推出NVIDIA vGPU的全新云桌面解决方案]]> http://www.itsto.com//news/1630.html 7月20日,紫光旗下新华三集团(以下简称新华三)宣布正式推出采用NVIDIA vGPU技术的基于KVM虚拟化平台商用的全新云桌面解决方案,依托新华三在桌面云领域的持续积累与英伟达vGPU的优异表现,该方案能通过GPU服务器集群实现集中编码、捕获、渲染,降低前端的工作负载,并且提供绝佳的使用体验。该方案采用了可为设计人员和专业技术人员提供高级工作站功能的NVIDIA Quadro虚拟数据中心工作站,以及可为知识性员工提供本地PC体验的NVIDIA GRID虚拟PC。
 
新华三集团副总裁朱国平,NVIDIA虚拟GPU业务副总裁John Fanelli,Proviz亚太区业务主管沈威共同出席了本次仪式,并详细介绍了云桌面解决方案的前沿技术优势和行业应用价值。
 
以深度学习为代表的新兴技术的兴起,正推动着各行各业加速获取数据价值、重塑商业模式。这一趋势为擅长处理并行计算和浮点计算的GPU创造了前所未有的发展机遇。在软件定义基础架构下,GPU虚拟化、图形工作站纳管等创新解决方案成为推动客户业务变革的新力量。
 
作为数字化解决方案领导者,新华三是国内唯一一个在KVM虚拟化平台基础上,同时支持SoftGPU、GPU Passthrough、vGPU全系列的云桌面方案提供商。本次全新发布的基于NVIDIA vGPU的新华三云桌面版本在稳定,可靠,高效的CAS虚拟化平台基础之上,借助创新的虚拟桌面基础架构满足客户多种需求:借助高效的H-V数据共享技术,增加传输效率和降低延迟;借助H.264/H.265硬件压缩的技术降低CPU负载;采用差分图像传输技术,降低网络带宽占用;利用终端软硬件解码技术共存,兼顾成本和清晰度;同时采用灵活的vGPU管理,支持用户不同的3D和编解码需求。
 
目前,新华三以云计算、人工智能为契机,为客户提供了包括基础设施、云平台、云桌面、瘦终端在内的整体解决方案,满足客户以云计算为核心的ICT业务发展需求。同时凭借自主研发且国内市场占有率第一的虚拟化平台CAS,以及云桌面在教育、政府、企业以及融媒等多个行业的实践,立足开放合作的理念,携手英伟达提供覆盖全行业、全场景的端到端云桌面解决方案,帮助客户构筑先进、高效的IT平台。
 
新华三集团副总裁朱国平表示,随着人工智能成为当前数字化转型最具发展潜力的创新技术之一,GPU也在满足客户计算需求方面扮演着更加重要的角色。新华三将把自身涵盖多个领域的技术积累和行业实践优势,与英伟达卓越的GPU产品结合,为客户开启智能化变革时代。
]]>
2018-07-24 13:30:58
<![CDATA[7月份服务器价格指导,双路塔式服务器选购]]> http://www.itsto.com//news/1629.html        7月中下旬,戴尔和联想的X3500M5价格上涨,其他型号价格稳定。
 
  一、调查机型
 
  双路塔式服务器数量,在市场中并不比机架的多。主要厂商的代表机型有:惠普的ML350 Gen10;戴尔的T440和T640;联想的TD350和X系列的x3500M5;浪潮NP5570M4。
 
  二、调查范围
 
  推荐的询价方法有,可以对惠普和戴尔产品采用电话询价法,联想、浪潮国内厂商的产品,可采用邮件和电话询价相结合方式。
 
  三、主机市场价格
 
  1. HPE: ML 350Gen10 服务器产品价格稳定
 
  双路塔式服务器新推出Gen 10新一代服务器,ML350 Gen10服务器支持多达2个至强可扩展处理器,高达24个DIMM插槽,支持2600MT/秒的HPE DDR4 SmartMemory。最多支持4块图形处理单元 (GPU),以加速虚拟桌面解决方案 (VDI) 以及金融服务、监控和安全、教育和科研、零售和医学成像方面的机器学习的性能。
 
  ML350Gen10,可以支持至强E5-266v4处理器,在惠普的双路塔式服务器中,属于目前的主流机型,在本期的监测中,配置设定为E5-2609v4/1*8GB 2133/8LFF/B140i/NC331i/500W PT,市场价格本期在13,800~14,200元。
 
  2. 联想: X3500M5产品价格上涨
 
  联想的双路服务器有三个系列,其中TinkSystem系列有一款ST550,最大的特点是采用可扩展处理器,可采用Exon 3106。联想System X系列中的X3500M5系列中本期监测一款是5464I05,采用v4处理器,配置是1xE5-2603v3 6C 1.6G,1x8G DDR4, 8X2.5"盘位,该款产品价格本期有涨幅,在14,000~14,800元。
 
  联想的TD350,采用英特尔至强v4处理器,搭载四核E5-2609 v4 1.9GHz,1*4GB DDR4 2133内存,最大可拓展512GB,存储方面1TB 热插拔SATA 3.5寸硬盘(7200转),最大可拓展到90TB存储空间,4U的机箱,是成长型企业和部门级应用的优化,该款价格稳定在13,200元左右。
 
  3. 戴尔:两款产品的价格小幅上涨
 
  戴尔的双路塔式服务器有两大型号——T440和T640。其中,戴尔的T440,在产品配置上,处理器支持英特尔至强E5-2603 v5 1.7GHz,该系列是一款用于可扩展设计和静音设计的强大双路塔式服务器,提高办公环境中的性能。本期监测的一款是E5-2603v4/4G/300G/DVD/H310/单电/热插拔,本期价格涨至11,000元左右。
 
  另一款升级产品T640,配置是至强六核E5-2603 V5(1.7GHz)/4G/300G(SAS 15K)/H330/单电495W/dvdrw/8背板/3年7*24(热插拔),市场中可以订货,价格上涨为13,300元左右。
 
  5. 浪潮:产品NP5570M4价格稳定
 
  浪潮的NP5570M4的价格保持稳定。这是一款面向部门级应用的双路塔式服务器,具备出色的性能、灵活扩展、稳定可靠等特性。面向教育、医疗、中小企业等客户,适用于小型企业云、远程办公环境它可支持2颗至强E5-2600V3/V4系列处理器和20条DDR4内存,最大可支持1.2TB内存容量。监测的一款型号是E5-2420 V3/V4/6G/300G SAS*2 /单电/双网卡/DVD /RAID 1,市场价格稳定在13,800元左右。
]]>
2018-07-24 11:50:38
<![CDATA[NVIDIA与戴姆勒、博世公司联合研发自动驾驶技术]]> http://www.itsto.com//news/1628.html         近日,NVIDIA在官方博客上正式宣布与戴姆勒、博世公司联合开发出了Level4、Level5等级的自动驾驶技术,此外,NVIDIA开发的自动驾驶硬件DRIVE PX Pegasus可以满足未来几年的性能需求,本次合作大幅度推进了自动驾驶技术研发速度及推广程度。

                                                       
 
        Drive PX Pegasus已经是NVIDIA的第五代产品。配备了四个用于自动驾驶的处理器,其中两个DRIVE Xavier是已经发布的世界最大的SoC,拥有90亿晶体管,采用12nFFN工艺打造。对比上一代产品Drive PX Pegasus算力性能暴涨了13倍,每秒可以处理320万亿次操作,NVIDIA自动驾驶硬件产品的迭代速度如此之快足以证明NVIDIA想做自动驾驶领域硬件老大的决心。
 
        NVIDIA表示整个Drive PX Pegasus平台是世界上最节能的超算,每瓦性能达到了一万亿次,而且只有汽车牌照般大小。在与戴姆勒和博世的联手中,NVIDIA凭借自身人工智能、自动驾驶平台的硬件经验,结合博世的系统框架专业知识以及梅萨德斯在汽车制造商的优势,实现了技术突破。Level4、Level5等级的自动驾驶技术几乎可以做到真正的无人驾驶。未来,只要对汽车发出语音指令就能自动进入驾驶状态,享受特别的驾乘体验。
]]>
2018-07-20 13:47:39
<![CDATA[NVIDIA再出AI黑科技,完美去除图片噪点、水印]]> http://www.itsto.com//news/1627.html 今天再大家介绍NVIDIA另一个AI深度神经网络的应用例子,那就是可以将充满了噪点的照片恢复到几乎完美的水平,该项研究成果是NVIDIA与麻省理工、阿尔托大学联合发布于瑞典斯德哥尔摩 ICML2018国际机器学习大会上。

 
过往在去除照片噪点上,研究人员通常是利用“带噪点”和“不带噪点的清晰”照片进行深度神经网络训练,让AI系统学习两者的差异性,以及如何更好地去修复它。但NVIDIA等研究员采用了一个全新的方式,它只需要两张“带噪点”的图片就能训练出可修复照片的AI系统,可以移除照片的噪点、失真部分以及增强照片的清晰度。
 
研究人员表示在没有足够清晰度条件下,去掉噪声恢复照片应有的清晰度并非不可能,而且经过AI深度神经网络处理过的照片拥有更好的清晰度,同时整个系统训练时间与以往的方案没有太大区别。而研究团队的硬件不是最先进的NVIDIA Tesla V100,而是Tesla P100 ,配合上基于TensorFlow 深度学习框架 ImageNet进行AI系统训练,训练样本高达50000 张图像。

 
之后,研究人员把这套AI系统尝试用在增强MRI核磁共振图像上,结果也取得非常好的效果,去噪点效果优秀,可以让专业医生更好地判断病情。
 
当然了,这套系统简直就是低光照拍照的救星,现实生活中如果在低亮度条件下拍出来的照片,经常会出现噪点,这是感光器件的固有问题,虽然可以算法降低这部分影响,但是我们会看到有严重的涂抹感。NVIDAI与大学研究员开发的这套系统就能针对性去除掉噪点,甚至进一步增强了照片的清晰度,未来可以广泛用于天文的微光摄影、基于物理的渲染图像、核磁共振成像上。

 
试想一下,如果这项成果最终能够输出到手机上,充分地调动起手机SoC的NPU、AI部分,或许手机夜景拍照成像会有全新的体验。
]]>
2018-07-17 14:35:42
<![CDATA[入门级网络存储的基本常识]]> http://www.itsto.com//news/1626.html         存储是一件复杂的事情,在经历过电脑运算能力和网络互连能力两次快速发展之后,人们对于网络的需求不再满足于连通能力,而倾向于更为强大的信息管理能力。随着越来越多的关键信息转化为数字形式并存储在可管理的介质中,网络对于存储和管理信息的能力产生了新的需求。
 
  当应用需求逐步转向面向数据应用时,尽管服务器、网络设备仍然是基础体系结构的重要组成部分,但越来越多的实例表明:对数据应用系统基础体系结构进行设计和规划的重点,已从传统的以服务器、网络设备为核心演化为以存储系统设计和规划为核心。在网络存储决定网络架构的今天,IT行业已经从PC、网络步入了以存储为核心的时代。
 
  而实际上,网络存储和网络连接的系统相比并没有多少不同。网络存储具有在网络上提供存储服务的能力。只要你可以将至少两台机器连接在一起,你就可以将服务器和存储连接在一起。或者说,只要你可以将成百上千台机器连接在一起,你就可以将成百上千台机器连接到成百甚至上千的存储系统,无论是本地的还是在广域网上的(WAN)。
 
  那么,无论是企业的网络管理员,还是SAN管理员,学习一些网络存储知识很有必要,而大家都知道,一口吃不成胖子,学知识也同样是一个循序渐进的过程,因此今天小编先来为大家介绍一下有关网络存储的基本知识与定义,并且以后会定期更新,一步步带领大家去探索存储的神秘领域。
 
  现代网络存储是从上世纪90年代中期开始发展起来的,当时存储主要是利用光纤通道仲裁环(FC-AL)并通过光纤通道集线器来连接。现在,我们有光纤通道光纤架构,1GbE(1Gb/秒以太网)或10GbE(10Gb/秒以太网)上的iSCSI(互联网小型计算机系统接口),网络附加存储(NAS),InfiniBand和FCoE(以太网光纤通道),这些技术都可以用于网络存储。
 
  了解存储的第一步,便是关于存储的分类与一些基本的定义,下面一起来看一看。
 
  直连式存储(DAS)
 
  DAS是直接连接在一台以上服务器上的存储系统,带有一个以上专有存储设备。基本上,你不需要通过交换机就可以让一台服务器直接连接到存储。这种存储是点到点的,其线缆是从服务器直接连到存储。
 
  网络附加存储(NAS)
 
  1. 作为一个存储系统,NAS指的是连接到一个网络的存储单元,可以为计算机系统提供文件访问服务。这些单元通常包含一个引擎,由该引擎实施文件服务,同时数据存储在一个以上的设备中。
 
  2. 作为一个网络,NAS是一套系统,通过文件访问协议,比如NFS(网络文件系统)或CIFS(通用互联网文件系统),为主机计算机提供文件服务。参见下面的存储局域网。
 
  以太网光纤通道(FCoE)
 
  FCoE技术可以在以太网帧内封装光纤通道帧,从而使用户可以在以太网网络上进行光纤通道传输。以太网网络的价格比光纤通道便宜。
 
  存储局域网(SAN)
 
  光纤通道或iSCSI存储局域网。这个定义很快也将涵盖FCoE存储局域网。
 
  SAN使用块寻址方式。块寻址是一种算法,可以将存储在磁盘或磁带上的数据块确认为一系列数字,然后将这些数据转换为存储媒介上的物理地址。
 
  小型计算机系统接口(SCSI)
 
  SCSI是一系列ANSI(美国国家标准学会)标准和建议标准的集合,定义的是那些通过主机总线适配器(HBA)将存储子系统或设备连接到主机的I/O总线。
 
  串行高级技术附件(SATA)
 
  SATA是ATA接口的一种版本,使用串行连接架构。
 
  串行连接SCSI(SAS)
 
  SAS是一种SCSI接口标准,供HBA和RAID控制器连接到SAS或SATA磁盘或磁带驱动器,以及其他SAS设备。
 
  INCITS(国际信息技术标准委员会)技术委员会T10负责SAS的美国(ANSI)和国际(ISO)标准。
 
  存储协议的变化
 
  不久以前,网络存储的情况还是由主机这边创建一个封装了数据或命令的SCSI包,然后将该包发送到FC(光纤通道)HBA;FC HBA获得SCSI包后,通过光纤通道协议将其发送到RAID控制器;RAID控制器然后将其写入光纤通道磁盘,然后磁盘驱动器获得SCSI包并将其转换 为驱动器上的数据。
 
  现在,数据协议还是将SCSI传输到控制器,但是封装可以是用TCP/IP和以太网、InfiniBand或 FCoE。如今,数据到达控制器以后的事情也发生了变化。最新的RAID控制器--以及可预见的未来内所有新的控制器--将采用前端SCSI协议和底层硬 件接口,然后使用SAS协议传输到磁盘托架,然后再根据磁盘类型(SAS或SATA),针对磁盘驱动器使用合适的命令集。
 
  SCSI是 SAS的子集,而SCSI是SATA的父集。对于SAS来说,一些SCSI所没有的额外命令对传输来说并不重要,但是对驱动器管理来(比如电源和错误管 理)说很重要,因此主机端不需要这些额外命令,只有RAID控制器或SAS HBA需要。
]]>
2018-07-17 13:16:40
<![CDATA[烽火服务器同时提供Intel KNL以及NVIDIA GPU超算解决方案,助力武大超算中心建设]]> http://www.itsto.com//news/1624.html        近日,继“武汉大学100G高速网络及网格计算集群采购项目”中标后,烽火GPU高性能服务器再次中标“武汉大学GPU集群采购项目”。作为行业首例,此次烽火将在武大超算中心同时提供Intel KNL以及NVIDIA GPU超算解决方案,两种顶尖HPC方案在同一项目中实施,配合OPA 100G网络,极大提升超算中心整体性能。
 
       根据客户需求,烽火提供业界最新超算解决方案,包括最大GPU密度、最新的NVLink 2.0技术两大特点。本次武汉大学GPU集群项目采用了55套烽火FitServer G1480 GPU服务器作为计算节点,配置220块NVIDIA 最新架构的V100 GPU,通过Intel® Omni-Path fabric网络进行节点间高速互联,具有最大GPU到GPU带宽,可支持重要的高性能计算(HPC)集群和超大型工作负载,轻松满足武汉大学对于HPC计算和AI计算的需求。
 
      极致密度,极致性能,业界规格最高的1U高性能并行计算平台
 
      烽火FitServer G1480 GPU服务器在1U高度机箱,集成4路Tesla V100 GPU,支持NVLink 2.0高速互联技术,具备GPU无需预加热、GPU Direct RDMA技术、专业成熟的散热设计、集成超高能效比电源等多个特点,整机混合精度计算性能高达500万亿次每秒。FitServer G1480作为业界规格最高的1U高性能并行计算平台,在提供超高计算性能的同时,降低超算中心在机房空间上的成本投入。
 
     同构计算,NVLink 2.0高速互联技术,具备超高并行计算效率
 
      FitServer G1480服务器采用Cube Mesh拓扑,实现了同构计算,4块GPU可以在不依赖CPU的前提下,实现机内点到点通讯,大幅减少异构通讯的次数。采用NVLink 2.0高速互联技术,GPU间互连带宽可达300GB/s,使GPU性能发挥至极致,单卡混合精度浮点计算性能高达125万亿次每秒,并具有极低的延迟,
满足武汉大学超算中心对于并行计算效率的高要求。
 
      搭载全新架构GPU,整机性能大幅提升
 
      服务器搭载的NVIDIA Tesla V100 GPU,采用最新的12nm工艺设计,芯片面积达815平方毫米,210亿颗晶体管,5120个CUDA Core,640个Tensor Core,芯片计算和节能性能都显著提升,平均加速比可以达到3倍。Tesla V100 GPU相比Tesla P100 GPU,针对深度学习中的Training(训练)和Inference(推理)大量的矩阵运算,新增Tensor Core单元,矩阵运算提升了12倍,并采用最新的NVLink 2.0技术和HBM2技术,有效地提升了CPU与GPU或者GPU与GPU之间传输带宽及显存的带宽和利用率。
 
      强大的软硬件设计能力,提供领先的整体解决方案
 
      在高速网络与智能化飞速发展的今天,烽火提出的解决方案完美满足了武汉大学建设高性能、大容量超算中心的需求,并利用其强大的技术研发实力、完善的质量保证体系、先进的生产工艺和测试方案,为超算中心提供先进、稳定、可靠的基础建设产品及解决方案。
 
      烽火在“武汉大学GPU集群采购项目”中,从众多参与厂家中脱颖,充分体现了烽火在大ICT领域的实力,以及客户对烽火在服务器领域技术实力和交付能力的认可。而烽火将持续发力,为全面进入信息化大市场,打造ICT基础设施和解决方案的领导者而不断努力。
]]>
2018-07-10 17:34:28
<![CDATA[英伟达Nvidia GeForce GTX 1180扩展显卡将支持VR设备]]> http://www.itsto.com//news/1623.html 据知情人士称,英伟达即将推出的GeForce GTX 1180扩展显卡可能包括虚拟现实头盔专用连接器,支持单根电缆的120Hz刷新率。该端口很可能基于当前的HDMI 2.1规范,因为它已被制造商广泛接受了。
 
目前的基于桌面的耳机支持90Hz的刷新率,这是虚拟现实中的防呕吐标准,在这里,视觉效果以每秒90帧的速度呈现,以防止晕车。这就是为什么你需要强大一点的显卡来处理这种体验。三星顶级的HMD Odyssey和HTC Vive Pro两款3.5英寸AMOLED显示屏的渲染帧数都为1,440 x 1,600,而HTC Vive和Oculus Rift采用了两款3.5英寸AMOLED显示屏,为1,080 x 1,200。
 
但随着GTX 1180的推出,英伟达似乎正在为下一代用户做好准备。例如,谷歌和LG联手创造了4.3英寸的OLED显示屏,每英寸1443像素,120Hz刷新率专为虚拟现实中的广阔视野而设计。 今年早些时候展示的样机有4,800×3,840的分辨率,而随附的论文称,显示屏将依靠眼球追踪来模糊玩家当前焦点之外的区域,从而减少显卡的工作量。
 
虽然有传言说GeForce gtx11系列将于2018年上映,但具体什么时候上映还不确定。迄今为止,英伟达似乎准备在Gamescom期间推出GeForce GTX 11系列游戏,因为该公司可能会在游戏大会之前或期间派记者前往德国,参加与GeForce相关的活动。考虑到这是一个漫长的旅程,英伟达可能将此更多的展示给出席的媒体成员,而不是在GeForce硬件上运行的一些酷游戏。
 
支持Gamescom的传言主要源于Micron公司在6月底发布了GDDR6内存的批量生产的消息,据称将用于GTX 11系列的卡上。报告还指出,外接程序卡制造商将在8月底或9月初收到英伟达的GPU,之后可能需要数周或数月才能生产现货产品。任何与新的“图灵”架构相关的问题都可能将大规模可用性推至2019年第一季度。
 
最近从Reddit上撤下的一张照片显示,卡片制造商可能已经制造出了这些电路板,但他们正在等待显卡芯片和内存。在照片中看到的版本是一个原型,包括3个8针电源连接器,12个Micron的GDDR6内存模块,以及一个可能的NVLink组件,但没有GPU。
 
英伟达首席执行长黄延森(Jensen Huang)在台北国际电脑公司(Computex)新闻发布会上发表了评论,之后,该公司在2018年发布了一份声明。当时,他承认,游戏玩家“从现在起很长一段时间内”可能看不到下一代显卡,但他没有声明发布窗口。考虑到大规模的显卡可能要到2018年底才会出现,对于热切等待英伟达下一代显卡的玩家来说,这是一段很长的时间。
]]>
2018-07-10 15:30:32
<![CDATA[新华三H3C与NVIDIA携手,展示全栈技术实力,加速AI创新]]> http://www.itsto.com//news/1622.html 6月27日, “引领AI发展,极速计算引擎”人工智能平台研讨会在广州召开,新华三携手全球领先的GPU制造商英伟达,向华南地区的客户展示了NVIDIA Tesla V100强大的AI计算性能和新华三在AI基础设施构建方面的全栈技术实力和行业应用价值。
 
新华三集团副总裁、广东代表处总经理王鑫表示,人工智能正在以颠覆性的影响力推进金融、交通、医疗、农业等行业加速实现数字化转型,而以GPU为代表的新一代计算芯片提供了更强大的并行计算力,让高效的分布式计算帮助人工智能算法可以在海量数据集上运行。新华三敏锐地察觉到这一技术变革趋势,以软件算法优化融合数据I/O优化部署高效率的GPU系统,以更快速、高效、灵活、软硬兼备的基础设施赋能AI实现更快速的创新和部署。
 
英伟达公司中国区OEM高级经理张亚维介绍了NVIDIA GPU 加速服务器平台在加速人工智能训练和推理方面的性能和成本优势,借助NVIDIA Tesla V100带来的创新技术成果,英伟达在三年时间内将深度学习训练性能提升超过80倍。
 
面对GPU在人工智能和深度学习领域的广泛应用,新华三推出了一系列与GPU相配合的服务器、网络以及高性能计算的相关解决方案。在计算层面,新华三推出了业界领先的H3C UniServer R5200 G3 GPU服务器,和HPE品牌的Apollo 6500 System。UniServer R5200 G3采用了优化的CPU/GPU架构设计,可支持10块双宽或20块单宽的GPU,并且能通过丰富的接口实现业界领先的扩展性能,同时,冗余设计的热插拔电风扇能够7x24小实现高可用。Apollo 6500 System支持业界最新Nvlink2.0互联架构,为用户带来出色的性能体验。
 
在存储方面,新华三构建了面向海量数据的并行存储架构,能实现更好的读写性能、可用性和可扩展能力,单套系统可支持高达420块7.2K SASLFF硬盘。
 
在高性能计算和人工智能融合的公共科学计算领域,HPC多机并行计算和存储、高速网络和多任务资源调度等进展为AI提供了底层基础技术。新华三AIOS人工智能计算平台以功能内聚、设计全面为原则, 针对专业开发者提供全自动化交互式开发环境, 通过对机器学习、深学习知识的不断探索,实现模型优化和性能优化的扩展功能, 提供了一个功能全面的深度学习系统,配合HPC Manager分布式集群管理系统对底层的计算、存储和网络的管控与调度,让AI带来数据洞察力,加速科学价值的获取和研究。
 
目前,新华三已经帮助了众多国内行业用户构建起强有力的AI计算解决方案,通过高效的GPU服务器、100GB高速互联网络和集中供电模块,构建起覆盖计算、管理、供电等多个维度的优势方案,获得了用户的高度认可。同时,新华三的网络解决方案也已融合到百度、阿里巴巴和腾讯等国内领先的互联网和人工智能研发企业的基础架构建设中,并为客户提供了出色的性能、可靠性和拓展性,让人工智能助推行业创新,推进智慧时代加速而来。
]]>
2018-07-04 13:15:13
<![CDATA[英伟达是怎样构建办公室用的超级计算机?]]> http://www.itsto.com//news/1621.html 企业用户通常需要数据中心提供极高的性能,但同时又希望免去诸如空调设备超速转动产生的噪音、复杂的线缆和安装等其他麻烦。面对这样的需求,桌面级超算应运而生。
 
而这也正是NVIDIA DGX Station的设计宗旨。NVIDIA DGX Station是专为办公室场景设计的深度学习超级计算机,其性能是市面上功能最强大的工作站的两倍。
 
“DGX Station采用液冷设计,在办公室产生的噪音极小。而且它速度超快,将我们深度学习训练的速度提升了170倍。”SAP Leonardo Machine Learning的机器学习业务网络负责人Frank Wu说道。
 
Omnious首席执行官Jaeyoung Jun表示:“我们采用DGX Station对我们的自动化时尚图像标记工具进行了训练,速度比人工标记快100倍,降低了90%的运营成本,并且精确度比人工标记更高。这有助于我们走在时尚前沿,并及时为客户提供服务。”
 
“有了NVIDIA DGX Station,我们的训练时间减少了3倍,同时将电信、物联网、安防和智慧城市领域的实时多传感器事件检测和分类解决方案的精确度保持在90%以上。”AI系统制造商KickView的联合创始人兼首席执行官David Ohm说道。
 
“借助DGX Station提供的灵活性和无与伦比的性能,我们最终能够以更低成本训练和应用先进的深度学习模型,进而为更快且更安全的医学影像检查提供实时的人工智能解决方案。”Subtle Medical首席执行官兼联合创始人Enhao Gong表示。
 
建造一台DGX Station
 
NVIDIA DGX Station首席架构师Chris Klein负责打造这一系统。其目标是,设计一款桌面级超级计算机,可由常规壁式插座供电,使用GPU加速的即插即用软件,且运行噪音足够低。
 
专注不同领域的NVIDIA工程师各司其职、协同工作,才共同打造出了DGX Station这样超众的深度学习计算机。Klein指出:“这可谓前所未有的创举,每个人都必须尽心尽力才能完成任务,而孤军作战是行不通的。
 
”DGX Station的诞生并非一帆风顺。强大的超级计算、铜管道热工作业、机械工程设计、以及和考究紧凑型工业设计,这些规划也并非易事。
 
超级计算机必须囊括在适合桌面的小型机箱中。其内部包含四块Tesla V100 GPU、NVLink互联技术、20480个NVIDIA CUDA core,这一切共同造就了500 TFLOPS的超强深度学习能力。
 
DGX Station能够在办公室环境中提供强大的计算能力,这就要求它采用水冷却的方式,否则可能会产生非常大的噪音。风冷工作站的噪音行业标准大约为45分贝。DGX Station完胜这一标准,达到35分贝,也就是一般办公室通风系统的噪音量。
 
除了能够带来令人愉快的办公室工作环境,DGX Station还是一款速度超快的深度学习机器,其速度是最敏捷的工作站的2倍。同时,时尚、紧凑的机箱取代了四个服务器机架,而且能耗仅为其二十分之一。
]]>
2018-07-04 10:35:49
<![CDATA[英伟达NVIDIA推出九款全新高性能计算容器]]> http://www.itsto.com//news/1620.html         在本周于法兰克福召开的国际超算大会上,NVIDIA推出9个新的HPC和可视化容器。至此,用户可在NGC上使用35个深度学习、高性能计算和可视化容器。NVIDIA GPU Cloud(NGC)自去年推出以来,提供的容器数量已增加了两倍多。
 
  NVIDIA一直努力推动部署GPU加速的高性能计算和人工智能。在过去三年中,尤其是对于从事AI工作的研究人员和数据科学家而言,容器已成为在共享集群上部署应用并加速其工作的关键工具。
 
  深度学习框架也是深度神经网络设计、训练和验证的构建模块,这些容器使深度学习框架的部署能够更快更轻松。框架的设置是一个非常复杂又耗时的过程,容器简化了这一流程,因此用户可通过简单的拖动和运行指令就能访问最新版的应用程序。
 
  复杂的部署挑战也存在于HPC计算和可视化应用中。
 
  进展迅速:全新NGC容器包括CHROMA、CANDLE、PGI和VMD
 
  在去年超算大会推出的包括NAMD、GROMACS和ParaView在内的八个容器基础上, NGC新增了9个HPC和可视化容器,包括CHROMA、CANDLE、PGI和VMD。
 
  NGC上提供的PGI编译器容器将助力开发者构建面向多核CPU和NVIDIA Tesla GPU的HPC应用。有了PGI编译器和工具,就能通过OpenACC、OpenMP和CUDA Fortran并行编程,开发具有性能可移植性的HPC应用。
 
  NGC容器对于用户的价值显而易见,现已有超过27000名用户注册访问NGC容器注册。
 
  容器加速发现过程
 
  对容器的需求不仅局限于深度学习。超级计算也亟需简化所有细分市场的应用部署,这是因为几乎所有的超算中心都采用环境模块来构建、部署和启动应用。
   
      
         如果没有容器,应用的更新就会相当复杂,如上图所示。
 
  这种方法可能需要几天的时间,所以非常耗时且生产效率低下。这对系统管理员和最终用户来说都是一种非常低效的方式。
 
  在超算领域中,这种安装的复杂性就限制了用户访问最新功能并享受优化的性能,继而延迟发现进程。
 
  容器简化共享系统上的应用部署
 
  容器是一个很好的选择。无需安装意味着无需跟踪或担心打破环境模块链路。
  
  用户可自行提取容器,并在几分钟内完成应用部署,而无需因为走审批流程而等待好几天。
 
  系统管理员现可专注于任务关键型的工作任务,而非服务和维护应用。
 
  容器的其他主要优点还包括提供了可重复性和可移植性。用户可在不安装应用的情况下,在各种系统上运行工作负载并获得等效的模拟结果。这对验证研究论文的结果尤其有帮助。
 
  NGC提高生产力并加速发现进程
 
  NGC容器内的应用是GPU加速的,比CPU系统具有更好的性能。
 
  用户可访问最新版本的HPC应用,且NVIDIA每月都会在整个软件堆栈范围内对深度学习框架容器进行更新和优化,以提供基于NVIDIA GPU的最佳性能。
 
  最后,这些容器还将在支持的云服务提供商(包括AWS、谷歌云平台和Oracle云基础设施)的各种系统上(包括基于GPU的工作站NVIDIA DGX System和NVIDIA GPU)进行测试,以实现流畅的用户体验。
]]>
2018-06-29 17:25:38
<![CDATA[人工智能的高速引擎:HPE Apollo6500 Gen10服务器]]> http://www.itsto.com//news/1619.html 人工智能毫无疑问是当前最热的商业话题之一,从上层的语音识别、翻译及机器学习,到Python等适用于深度学习的语言以及各式算法,与人工智能相关的议题总不缺乏热度。人工智能潜力巨大,但是万丈高楼平地起,任何一个人工智能的算法或者系统都需要一个高效的底层平台进行支撑。
 
深度学习:算法是灵魂 基础架构是引擎
 
深度学习是人工智能最广泛的应用领域,它使用高性能计算机识别海量数据中的模式和关系。算法可以说是深度学习的灵魂,训练模型、处理数据的方式都由算法定义,而算法需要在基础架构驱动下才能高效运作,基础架构也是整个人工智能的引擎。
 
2018年4月28日,HPE Apollo6500 Gen10服务器在全球发布,单台服务器最高支持8个NVIDIA Tesla GPU,支持PCIe与NVLINK 2.0的双重选择,并具备高带宽和低延迟的网络。HPE Apollo 6500 Gen10服务器由Gen9系列迭代发展而来,不仅全面继承了HPE在服务器上多年的设计经验,并且软硬件都进行了全面的升级。
 
随着这一新品进入市场,基于GPU的主流服务器在算力等参数上将上升到一个全新的高度,各类深度学习的场景也将有一个更加高效、易用、成熟的服务器选择。
 
Apollo6500 Gen10:
 
深度学习场景的最优引擎
 
业内领先的硬件配置与性能参数,加上HPE英伟达在服务器及GPU领域的影响力,使得HPE Apollo 6500 Gen10系统成为人工智能领域最高端的引擎。不仅是GPU与计算架构进行了升级,要使得整个系统的性能不留瓶颈,就需要计算、网络和存储都使用最高性能的方案,HPE Apollo 6500 Gen10服务器在此三个方面有了诸多新的设计,所以可以从计算、网络和存储三个方面解读这一人工智能神器。
 
首先是最高8颗GPU的计算架构,并且支持NVLink2.0,这是相比上一代产品的一个重要升级。简单的说,NVLink是一个能够在GPU-GPU以及GPU-CPU之间实现高带宽直连通讯的快速互联机制。单个NVIDIA Tesla V100 GPU 即可支持多达六条NVLink链路,总带宽为300Gb/秒,这是PCIe 3.0带宽的10倍。
 
采用NVLink2.0的高效混合立方网格是目前最为高性能的解决方案,不同的GPU之间通信带宽已经接近极限。另一方面,用户也可以使用基于PCIe的4:1或8:1的GPU:CPU连接。不同拓扑在高性能与易用性上各有优势,适用各种场景,用户可以根据业务模型灵活的选择。
 
网络层面,每台服务器支持多达4个高速适配器,除了以太网,还支持拥有更高速度的Omni-Path架构、InfiniBand EDR结构以及未来的 InfiniBand HDR,满足深度学习场景高带宽的需求。
 
存储层面,HPE Apollo 6500 Gen10支持NVMe SSD,相比SAS SSD,NVMe SSD拥有更高的带宽和更低的延迟,能够保障上层系统应用产生的数据第一时间下刷到存储层,避免存储成为瓶颈。
 
除了打通从计算到网络再到存储的整个链条上所有环节之外,HPE Apollo 6500 Gen10配备4个HPE 2200W白金电源(2+2冗余),并且每个服务器有5个热插拔风扇模块,提供坚实的供电、散热等保障。
 
先进的核心计算架构、从计算到网络再到存储的高效模块化设计和精心设计的电源及散热系统,使得HPE Apollo 6500 Gen10不仅能够满足各类深度学习应用场景需求。高度易用性和灵活性,充分降低了构建高性能人工智能系统的门槛,企业可以在HPE Apollo 6500 Gen10构建的坚实基础架构上以最短的时间完成对各类算法的训练。
 
中国区作为HPE Apollo6500 Gen10服务器首发地,人工智能市场前景广阔。互联网、金融、制造等多个行业,全球市场也需要HPE Apollo 6500 Gen10这样的高速引擎以布局未来,迎接人工智能时代的到来。
]]>
2018-06-27 17:25:10
<![CDATA[Nvidia推出一个与Kubernetes集群配合使用,加速深度学习负载]]> http://www.itsto.com//news/1618.html GPU在数据中心越来越受欢迎,它可以加速机器学习和深度学习等数据密集型工作负载。现在,全球最大的GPU制造商Nvidia将推出一个与Kubernetes集群配合使用的用例,以加速深度学习模型的训练。
 
Nvidia本周二表示,将发布Kubernetes on Nvidia GPUs的候选版本,可供开发人员免费使用。该版本是针对那些在多云GPU集群上训练深度学习模型的企业。
 
Nvidia 是在Computer Vision and Pattern Recognition大会上宣布推出Kubernetes on Nvidia GPUs的,此外还推出了新版本的推理优化工具和运行时引擎TensorRT,以及名为DALI的GPU数据增强和图像加载库,旨在优化深度学习框架的数据管道。
 
Nvidia表示,推出Kubernetes on Nvidia GPUs背后的想法是为了让软件容器编排平台更加“GPU感知”。Kubernetes on Nvidia GPUs针对的是运行人工智能应用的容器,将帮助开发人员更好地协调散步在多个云主机的GPU集群。
 
Moor Insights&Strategy创始人兼首席分析师Patrick Moorhead表示:“这很重要,因为Kubernetes托管的应用现在可以利用GPU的性能了。这在虚拟机上将实现比以前更高的可扩展性。”
 
就在Nvidia这次发布的几周之前,谷歌刚刚在其Kubernetes Engine平台上发布了一个测试版的GPU,旨在加速图像处理和机器学习工作负载。谷歌当时表示,这个云GPU可用于创建由Nvidia Tesla V100P100和K80处理器驱动的Kubernetes节点池。
 
Nvidia的TensorRT推理加速器是针对推理模型的开发者。该工具集成了谷歌开源的TensorFlow机器学习框架,并增加了新的层和功能,以加强针对推荐系统、神经机器翻译、图像分类和语音识别等应用的推理。
 
至于DALI,这是一项为JPEG图像编码提供GPU加速库的服务,旨在解决基于视觉的深度学习应用中的性能瓶颈,目的是为了帮助扩展图像分类系统如PyTorch、TensorFlow和ResNet-50的训练。AWS的P3 8-GPU实例以及Nvidia自己的DGX-1深度学习系统上都将提供DALI。
 
“深度学习研究人员需要他们的管道是便携的,”Nvidia加速计算软件和AI产品总监Kari Briski说。
]]>
2018-06-26 17:01:16
<![CDATA[HPE将与ARM强强联手,打造全球最强超级计算机]]> http://www.itsto.com//news/1617.html HPE正在与桑迪亚国家实验室以及美国能源部合作开发基于ARM芯片架构的、全球最大也是功能最强的超级计算机。
 
这个名为Astra的超级计算机将被美国能源部的国家核安全管理局用于运行先进模型,以改进对国家安全和能源等领域数据密集型科学实验的分析。
 
在超级计算机中使用基于ARM的体系结构是值得注意的,因为迄今为止,大多数此类设备都是使用更传统的、基于x86的体系结构所构建的。ARM芯片通常比基于x86的芯片所需晶体管数量更少,从而成本和功耗更低,并具有更好的散热。这使得ARM芯片成为智能手机等小型电池供电设备的理想之选,并在这些设备中应用最为广泛,但ARM芯片对于消耗大量能源的超级计算机来说也许是一个更节能的解决方案。
 
HPE对Astra超级计算机的主要贡献是自己的Apollo 70高性能计算平台,该平台由最新的Cavium ThunderX2 Arm处理器提供支持。Astra超级计算机在2592个双路服务器上运行着145000个核心,提供“是传统产品2.3倍的理论峰值性能,内存性能提高33%,且系统密度更高”。
 
HPE表示,这种架构才能为需要快速处理和分析大型数据集的研究密集型任务提供更高的HPC性能。HPE称,最终目标是提供所谓的“Exascale”超级计算系统,这种系统每秒可执行10亿次计算,比2008年问世的第一台“千万亿次”计算机快1000倍。
 
惠普表示,基于ARM架构是实现这一目标的最佳选择,因为传统的x86架构无法提供E级系统所需的性能、内存容量和可扩展性。
 
HPE先进技术集团副总裁Mike Vildibill表示:“通过将ARM处理器与HPE Apollo 70(一种专门构建的HPC架构)相结合,我们将把最佳内存性能和更高密度等强大元素带入超级计算机,而这是市场中现有技术所无法匹敌的。”
 
Constellation Research首席分析师兼副总裁Holger Mueller表示,新架构和流程(例如基于ARM处理器的架构和流程)将在夺取超级计算机冠军的竞赛中发挥重要作用。密度和能效是这场比赛的关键成功因素,ARM处理器在这方面表现突出。与Sandia Labs的合作伙伴关系将如何帮助HPE在这场竞赛中有出色表现,这一点值得关注。”
 
ARM是SoftBank集团旗下的一家英国公司,主要为其他公司设计芯片并提供授权。ARM采取了一些重要措施让处理器扩展到高性能计算领域。2016年8月ARM宣布将与日本富士通公司合作,开发一个以64位ARMv8-A驱动的Post K超级计算机,并于当年12月宣布收购Allinea Software公司,后者主要为超级计算机提供性能分析工具。
 
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示,ARM代表着新的竞争,这可能会刺激对超级计算机的投资增加。“ARM带来了一些非常有趣的密度和每服务器核心的新方法,这对于某些HPC任务来说是很理想的选择,”他说。
 
HPE没有透露何时会完成构建Astra超级计算机的计划。Astra将部署在桑迪亚国家实验室的一个计算机实验室中。
]]>
2018-06-21 17:04:50
<![CDATA[Computex 2018:英伟达nvidia还能跑得更快吗?]]> http://www.itsto.com//news/1616.html 人工智能兴起的这几年,原本已在GPU领域舒舒服服吊打竞争对手的英伟达,突然发现了能够消耗GPU强大并行计算能力的新方法。源自图形计算本身需求的GPGPU并不能带来广泛的深入社会生活各个领域的影响力,但人工智能不同。无论是各类厂商刻意的把自动化和远程控制按上智能的名头,还是Google深度安利的机器学习/深度学习,人工智能已经深入人心。
 
GPU的超级并行性以及单精运算的结构,天然就是AI计算的料,于是乘上AI东风的英伟达价值成倍成倍地增长,Computex期间再创新高,股价一度超过265美元,而整体市值更是超过IBM这样的蓝色巨人,AI盛况空前。虽然Google表示将自行开发新一代TPU产品,但是明眼人都知道,Google的TPU就是英伟达带加工的马甲。而就算不为Google这样的海量数据处理需求提供产品,黄仁勋的特斯拉(Tesla)可要比马斯克的特斯拉跑得疯多了!
 
当着数百媒体人,黄仁勋不厌其烦地细数着台面上每款产品的特性和用途。无人会否认,英伟达股票的持续翻红,与前景无限的AI关系密切,但是现实是另一个结果,其超过60%的营收,来自最为人所熟知的GeForce游戏业务,而与AI相关的业务收入只有前者的几分之一。要知道,GeForce 10系列上市已经两年时间了,相比英特尔的“挤牙膏”,英伟达连牙膏都懒得挤,一代产品不降价还能被持续抢破头,游戏的火爆和挖矿的火爆,哪个都能让它躺着收钱。
 
然而,英伟达还在不断地加大AI相关产品的投入,从研发、产品到市场,一刻都没有停止过。这样全力以赴,它还能跑得更快些吗?
 
Computex上,黄仁勋再次带来了全线AI计算的硬件新品,上至被两块Xeon CPU串联起16块Tesla V100组成的“最大GPU”HGX-2、一体型计算主机DGX-2/DGX-STATION,下至集成数十个核心的Jetson Xavier平台(包括了1个Volta Tensor Core GPU、1个8核ARM64 CPU、2个NVDLA深度学习加速器、1个图像处理器、1个视觉处理器和1个视频处理器)为机器人提供大脑,以及满足5级自动驾驶需求的DRIVE XAVIER/PEGASUS,无不密切围绕热门的AI领域开发。
 
诚然,当然的英伟达借十余年在GPU领域的霸主地位顺理成章地快速切入了AI硬件领域,并且赢者通吃,拿下了自动驾驶、机器学习等多个领域。
 
然而,卧榻之侧,岂容他人鼾睡。让所有人都眼红是一种成就,但也是一种风险,当英伟达红得发紫的时候,它原本的客户以及竞争对手也都没闲着,新的更大的挑战就在那不远的地方。
 
5月中,在Google I/O大会上,Google宣布将推出为特别优化了神经网络训练和TensorFlow流程优化的第二代TPU产品,其架构和设计已经明显有别于英伟达提供的基于GPU架构设计的产品。虽然英伟达新一代的Tesla V100产品也具有相对独立和强大的Tensor计算能力,但超大的核心、昂贵的价格、不专一的设计,很可能让它丢掉Google这个大客户。
 
除了曾经的客户,英伟达还必须面对拥有强大制造能力的英特尔,毕竟作为Fabless厂商,没有制造的灵活性,与难以掌控V100超大核心的制造并存。通过一系列买买买和长时间的消化吸收,英特尔已经建立起更为完整的AI芯片家族,从提供兼容丰富应用并兼顾桌面AI需求的x86家族产品,为机器计算提供平台节点的Xeon系列,以及“买来”并已经开始产品落地的AI芯片Nervana、Altera FPGA产品和Movidius VPU,从端到端的AI产品和40年的PC生态,都让英特尔显得和蔼可亲。
 
在特定的AI应用领域,比如需要低功耗和实时性的移动终端上,寒武纪甚至高通都成为了它潜在的竞争者。别看英伟达在机器学习领域近乎垄断,但在新一波的神经网络训练上,所有人几乎回到了同一起跑线上。
 
还要不要更多、更强的AI芯片,“适时地”成了英伟达必须面对的封顶问题,有关新的AI专用芯片是否还有市场的争议已起,具有一定通用特性的GPU生态最为完善,相关工具也非常成熟和被广泛使用,而新硬件特别是算法相对固化的产品,会让研究者浪费过多的熟悉时间。在台北回答记者问题的时候,黄仁勋也承认,在现有数据没有开始爆发性增长的情况下,已知领域的数据挖据和学习已经进行的差不多了,至少目前硬件性能已经可以满足要求,更高性能的产品显得不合时宜和浪费,因此英伟达在保持技术领先的情况下,短期更倾向于将成熟技术落地,包括产品实用化和小型化方向,自动驾驶及互动机器人产品,都是这样思路的产物。与英特尔的AI产品序列来自不同设计机理,需要解决互通性和算法一致性问题不同,英伟达的产品具有更好的通用性和架构的一致性,开发者所使用的工具与终端产品架构上并无二致。
 
人工智能是应用前景广泛、商业机会众多的领域,这是无人可以否认的现实。但是人工智能实现的路径和需要的工具却千差万别,一致架构的优势不定哪天就会成为绊倒英伟达自己的那道槛。
 
英伟达也在尽力避免自己的市场优势地位被AI的狂欢弄得一地鸡毛,如同前两年面对挖矿热潮一样,它也推出了不得使用GPU产品开发AI平台的禁令,并不断强调,“游戏显卡只能打游戏,不能放在数据中心跑深度学习”——在技术上,TPU才是AI的正根大脑,而GPU只是兼具此功能。事儿就在这个“兼”字上了,HGX/DGX就别说了,天价不说还买不到(政策及供给因素),游戏和挖矿让GeForce也供货紧张价格高企,用户不得不开始找其他可以到手的用具。好在英伟达多少意识到了这个问题,一方面不给用GeForce研究AI,一方面开放OEM生产制造最新的HGX-2,包括联想等PC厂商开始参与到产品供应中,当然,脖子还是卡在V100上。
 
另一个变化是,英伟达也开始尝试与其他厂商形成更良性的竞合关系,比如此次黄仁勋展示的“新产品”中就有来自新东家是英特尔的ALTERA,其Arria 10 FPGA功能模块孤零零地与GeForce产品放在一起,只是有关它的用途的讲解被活生生跳过了。
 
借AI再次爆红的英伟达正在不断地向业界重复着一句话:“ I am ai”,这才有了股价坐上火箭盛况。GeForce的强大支持,不仅呈现在财务端,更为AI研究提供了最直接的实例。视觉计算不仅最为消耗计算力本身,而且视觉对人来说可传递的信息太多,其中也大量包括了思维的反馈,这也也正是AI要学习和研究的方向。
 
有一个支柱产品的企业就能活得很好,有一个称霸领域的企业就能翻云覆雨,而如果有两个呢?英伟达如其许多前辈一样,眼见就能称霸第二个领域了!疯狂推动技术迭代的背后,保持与最接近的竞争者之间有代差,是称霸最直接有效的方式,拿捏好用户和市场能摸出多少真金白银,是老黄的重要任务。剩下的问题就是,他送至眼前的cookies么,你接得住吗。
]]>
2018-06-15 16:35:59
<![CDATA[NetApp携手Nvidia打造深度学习GPU服务器芯片]]> http://www.itsto.com//news/1615.html NetApp和Nvidia已经推出了一个组合式的AI参考架构系统,与Pure Storage和Nvidia 合作的AIRI系统相竞争。
 
这款系统主要针对深度学习,与FlexPod(思科和NetApp合作的融合基础设施)不同,这款系统没有品牌名称。而且与AIRI不同的是,它也没有自己的机箱封装。
 
NetApp和Nvidia技术白皮书《针对实际深度学习用例的可扩展AI基础设施设计》定义了一个针对NetApp A800全闪存存储阵列和Nvidia DGX-1 GPU服务器系统的参考架构(RA)。此外还有一个速度慢一些的,成本更低的、基于A700阵列的参考架构。
 
高配的参考架构支持单个A800阵列(高可用性配对配置),5个DGX-1 GPU服务器,连接2个思科Nexus 100GbitE交换机。速度较慢的A700全闪存阵列参考架构支持4个DGX-1和40GbitE。
 
A800系统通过100GbitE链路连接到DGX-1,支持RDMA作为集群互连。A800可横向扩展为24节点集群和74.8PB容量。
 
据说A800系统可实现25GB /秒的读取带宽和低于500微秒的延迟。
 
 
NetApp Nvidia DL参考架构配置图
 
Pure Storage和Nvidia的AIRI有一个FlashBlade阵列,支持4个DGX-1。FlashBlade阵列提供17GB /秒的速度,低于3毫秒的延迟。这与NetApp和Nvidia合作的参考架构系统相比似乎较慢,但A800是NetApp最快的全闪存阵列,而Pure的FlashBlade则更多地是一款容量优化型闪存阵列。
 
和Pure AIRI Mini一样,NetApp Nvidia DL RA可以从1个DGX-1起步,扩展到5个。 A800的原始容量通常为364.8TB,Pure的AIRI原始闪存容量为533TB。
 
AIRI RA配置图如下所示:
 
 
Pure Nvidia AIRI配置图
 
NetApp和Pure都对他们的这两个系统进行了基准测试,并且都包含Res-152和ResNet-50运行使用合成数据、NFS和64批量大小。
 
NetApp提供了图表和数据,而Pure只提供图表,所以对比起来有点困难。不过,我们可以通过将这些图表放在一起做个粗略的估计。
 
合成的总图表并不漂亮,不过确实提供了一些对比:
 
 
NetApp和Pure Resnet性能对比
 
至少从这些图表可以看出,NetApp Nvidia RA的性能优于AIRI,但让我们吃惊的是,由于NetApp/Nvidia DL系统与Pure AIRI系统相比具有更高的带宽和更低的延迟,分别是25GB/s的读取带宽和低于500微秒以下,后者分别17GB/s和低于3毫秒。
 
价格对比很好,但没有人透露给我们这方面的数据。我们猜测Nvidia可能会宣布更多深度学习方面的合作伙伴关系,就像NetApp和Pure这样的。HPE和IBM都是很明显的候选对象,还有像Apeiron、E8和Excelero等NVMe-oF这样的新兴阵列初创公司。
]]>
2018-06-14 16:13:15
<![CDATA[H3C新华三与NVIDIA合作,引领AI,构建高效计算引擎 ]]> http://www.itsto.com//news/1614.html 现如今,人工智能(AI)进入到一个以大数据为基础的新阶段,在机器人和无人驾驶、计算机视觉、自然语言、虚拟助手、机器学习等领域得到广泛应用,正在掀起新一波的数字革命浪潮。另一方面,由于人工智能需要对海量数据进行大规模、高速处理,对计算能力、网络效率、大数据存储能力都提出了新的要求。
 
深度学习与全新GPU架构解决方案
 
近几年来的实践显示,深度学习是许多人工智能技术取得突破的关键,而GPU作为深度学习所需的主要计算资源,正在迅速获得越来越多的关注。此次研讨会上,NVIDIA展示了其为深度学习推出的全新的Volta架构GPU —— NVIDIA TeslaV100。NVIDIA Tesla V100提供了最高性能模式和高能耗模式,前者将持续运行在300W的最大TDP功耗下,性能也是最出色的;后者则运行在50%~60% TDP模式下能够提供75%~85%的性能。
 
计算、网络、存储的高度配合与协同,才能让机器学习以最短的时间内获取最佳结果。新华三针对目前日益升温的人工智能应用场景,推出了一系列与GPU相配合的服务、网络以及高性能计算的相关解决方案。
 
此次研讨会上,新华三集团工业标准服务器GPU产品经理姚宏介绍,在深度学习与并行计算方面,可采用新华三的H3C UniServer R5200 G3,它是业界最高的扩展性服务器,支持NVIDIA Tesla GPU系列,可支持10块双宽或20块单宽的GPU;HPE Apollo 6500 System 支持多达8个300WGPU或协处理器,并且CPU为8:1的拓扑结构中,网络可直接连接至GPU的PCIe Gen3互联,从而减少GPU节点之间的延迟。
 
在数据样本的并行存储方面,有H3C R4300。在机器学习的推理上,可选用H3C R4900 G3,它是第一款由新华三集团完全自主研发的服务器产品,是最主流的2路2U 24DIMM设计,基于Intel最新的Boradwell E5-2600v4系列处理器DDR4-2400的内存组合,是目前市面上最先进的双路服务器计算平台。R4900 G3遵循本地规划、本地设计、本地生产、本地服务原则,在设计上考虑了中国市场的竞争状况和中国用户的需求;不仅如此,作为传统X86服务器标配提供的软件功能部分,嵌入式管理的HDM和批量管理维护工具FIST,也完全由新华三集团自主研发,拥有完整的知识产权。
 
高性能网络环境
 
在人工智能场景中,计算节点、存储节点之间存在大量的数据互通,因此端到端的网络吞吐性能及网络延时对计算的影响很大。伴随着这些业务的开展,RDMA技术在人工智能领域的应用越来越广泛。RoCE(RDMA over ConvergeEthernet)架构提供了在以太网中承载RDMA应用的解决方案,这个以太网必须是一个无损的(LOSSLESS)以太网。H3C参与各大互联网客户,尤其是BAT的人工智能业务测试,积累了丰富的经验。H3C在交换设备出厂时会对交换设备Buffer阈值等参数进行预先设定,覆盖大多数人工智能业务场景的需求。如果有更为个性化的参数设定要求(比如队列headroom、Reset值等),H3C交换机设备提供用于个性化参数设定所需的命令行,并且命令行在不断丰富和完善,H3C也会提供原厂的研发级支撑,配合客户进行现场测试,对人工智能的网络环境进行优化。新华三还提供了高速网络的可视化管理解决方案,可实现转发路径可视、Buffer可视、通过对PFC Pause帧发送数量及发送速率、ECN相关报文统计,实现流控可视化,了解传输网络节点的拥塞情况,从而更好的避免网络拥塞达到无损。
 
新华三AISO人工智能管理平台
 
随着人工智能在各个领域应用的逐渐渗透,高性能的科学计算也逐渐融合人工智能技术,因此科研单位需要在一套高性能基础设施上支持多种类型的科研任务,这包括机器学习、深度学习,HPC应用等。此次研讨会上,新华三集团技术战略部资深专家徐心平表示, “一个成熟的专业的人工智能平台,在保证计算性能的基础上,可以充分利用容器技术,实现资源隔离和共享。客户的诉求是多种科学计算任务需要统一审批、统一调度,由一套基础设施承载多种科学计算任务,实现模型训练任务提交、打包上线自动化,并有统一完善的任务监控和资源调度,以最大程度来发挥硬件平台效率。为此,这个统一平台需要解决各种高性能业务场景下,IT计算环境配置复杂,难以调优和共享的问题。”新华三的公共科学计算AI解决方案AIOS平台产品,就是充分考虑到以上挑战,以功能内聚、设计全面为原则, 针对专业开发者提供全自动化交互式开发环境, 通过对机器学习、深度学习知识的不断探索,实现模型优化和性能优化的扩展功能, 提供了一个功能全面的深度学习系统,从而为客户提供支持多租户共享、灵活GPU资源调度的人工智能解决方案。
]]>
2018-06-14 14:40:46
<![CDATA[英伟达GPU为美国重夺超级计算机提供了95%的计算力]]> http://www.itsto.com//news/1613.html         美国当地时间6月8日,美国能源部下属橡树岭国家实验室宣布,他们研发出的超级计算机“顶点”(Summit),浮点运算速度峰值可达每秒20亿亿次,接近“神威·太湖之光”超级计算机的两倍。据悉,这台超级计算机由IBM公司负责制造,搭载了近28000块英伟达GPU,逾9000个IBM传统处理器的超级计算机。
 
       GPU即图像处理器。理解 GPU 和 CPU 之间区别的一种简单方式是比较它们如何处理任务。CPU 由专为顺序串行处理而优化的几个核心组成,而 GPU 则拥有一个由数以千计的更小、更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。这次英伟达提供的GPU为“顶点”提供了95%的计算力。
 
      自2013年6月中国超级计算机首次成为最强超算之后,美国就不再拥有世界上最强大的超算。全球超算TOP500组织的超级计算机官方排名将在本月底更新,“顶点”有望结束这一局面。
 
       虽然超级计算机在云计算和大数据中心时代略微失色,但是很多棘手的计算问题还是需要大型机器。去年美国政府的一份报告中称,美国应该在超级计算上投入更多,以在核武器和高超音速飞机等国防项目,航空航天工业、石油开采和制药业的商业创新方面赶上中国。
 
       美国能源部长里克·佩里认为,“顶点”超算将给能源研究、科学发现、经济竞争力和国家安全带来深远影响。
 
       橡树岭国家实验室(Oak Ridge National Laboratory)成立于1943年,最初是作为美国曼哈顿计划的一部分,以生产和分离铀和钚为主要目的建造的,原称克林顿实验室。他们的使命是攻克美国当下面临的最严峻的科学难题,并且开发新技术,为人类创造更加美好的生活,保护人类。
 
       27648块英伟达GPU 9000个IBM传统处理器
 
      根据橡树岭国家实验室公布的数据,“顶点”占地面积相当于两个网球场大小,其循环系统每分钟需要消耗4000加仑(约等于15142升)水来使37000个处理器降温。利用评估超级计算机的标准度量的结果显示,“顶点”的浮点运算速度可达20亿亿次每秒。这比美国此前制造的超级计算机“Titan”的速度快了100倍。
 
  而“顶点”超强的计算机力有95%来自英伟达为其提供的GPU,即搭载了27648块Tensor Core的英伟达Volta图形处理器,可以让“顶点”进行每秒超30亿亿次(3.3 exaops)的混合精密计算。
 
       伊利诺伊大学香槟分校、美国国家超级计算应用中心的研究员Eliu Huerta将“顶点”巨大的 GPU 池形容为“就像梦境一样”。
 
       GPU即图像处理器,它与一般计算机的中央处理器(CPU)不同之处在于:CPU由专为顺序串行处理而优化的几个核心组成,而GPU则拥有一个由数以千计的更小、更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。
 
       数年前,有研究人员发现图形处理器的并行运行能力,非常适合运行深度学习算法。NVIDIA也正是借着人工智能的浪潮,推出GPU,迅速占领了市场,甚至影响到了英特尔在计算机芯片市场里的地位。
 
       橡树岭国家实验室负责人Thomas Zacharia表示,如此大规模的GPU使用对超级计算机来并不常见,它有助于机器学习在解决科学难题方面做出突破。
 
       除了有英伟达的GPU的帮助外,IBM提供的超过9000个传统处理器也功不可没。
 
      “顶点”成为尖端科学家的“游乐场”
 
      “顶点”超强的计算威力,也让科学家们相信它能在未来创在奇迹。
 
       橡树岭国家实验室已经成为尖端科学家的“游乐场”,许多高校的科学家们迫切希望利用这台计算机完成此前不可能完成的任务。
 
       Huerta就表示,他希望“顶点”能够帮助分析每晚从“大型综合巡天望远镜”得到的大约15TB 图像。
 
       据橡树岭国家实验室的介绍,“顶点”接下去的“行程”安排十分密集,已经排上日程的项目有:
 
        一是癌症研究。美国能源部和美国国家癌症研究正在做一个癌症分布式学习环境的项目。他们的目标是开发研究工具,可以自动提取、分析和分类健康数据,以揭示隐藏疾病因素之间的关系,如基因,生物标志物和环境。
 
        二是聚变能研究。聚变能长期以来一直是清洁、能量丰富的能源代表。科学家们一直希望能够模拟聚变反应堆及其磁约束等离子体,加快商业发展。
 
        三是疾病和成瘾性研究。这项研究中,研究者将使用人工智能来识别人类蛋白质和细胞系统的功能和进化模式。这些模式可以帮助我们更好地了解阿尔茨海默氏症、心脏病或成瘾,并告知药物发现过程。
 
        除了上述的项目外,“顶点”还能在化学和生物学问题上给予更多的帮助。Zacharia认为,这台超级计算机可以使用来自2200万退伍军人的医疗记录为美国能源部项目做出贡献,其中包括约 25 万全基因组序列。
 
      “顶点”能为人工智能(AI)和科学发现的整合提供了前所未有的机会,使研究人员能够将机器学习和深度学习等技术应用到人类健康、高能物理、材料探索等领域的问题研究上。
 
       5个关于“顶点”超级计算机的事实
 
       1.20亿亿次浮点运算:这意味着如果地球上每个人做一次一秒的计算,那么需要花费1年的时间,才能达到“顶点”一秒的计算量。
 
       2.30亿亿次混合精密计算:这意味着如果地球上的每个人做一次一秒的计算,那么需要花费15年时间,才能达到“顶点”一秒的计算量。
 
       3.在早期的测试中,一个基因研究组利用“顶点”超级计算机,花费了1个小时解决了问题,但如果将这个问题放在传统计算机上运行,可能需要30年时间。
 
       4.“顶点”的占地面积相当于2个网球场大小。
 
       5.“顶底”的重量相当于一架商业喷气机的重量。
]]>
2018-06-12 17:20:55
<![CDATA[NVIDIA展示AI新格局,通过GPU探索无限可能]]> http://www.itsto.com//news/1612.html 近日,COMPUTEX 2018盛大举行。COMPUTEX创办于1981年,30多年来一路与全球ICT产业一同成长、茁壮,见证产业发展与转变的历史性时刻。当前AI产业作为近些年异常火热的科技创新风口,受到了各界企业以及国家的重视。此次COMPUTEX 2018也有包括NVIDIA等在内的厂商与现场观众分享AI产业的机遇与挑战。特别是NVIDIA,在COMPUTEX 2018上展示了自身在AI方面的布局。
 
NVIDIA在面向人工智能工作负载的GPU市场上是毫无争议的领导者,NVIDIA在GPU市场一直处于领先地位,游戏业是GPU最大的用户来源。而数据中心则是其增长最快的业务市场。从业务架构来说,NVIDIA先是将90%的研发支出都投入到GPU架构和CUDA软件平台,继而将这种模式应用到各个平台:游戏、数据中心、人工智能以及自动驾驶。
 
NVIDIA创始人兼首席执行官黄仁勋曾表示,未来10年内,每年对于运算需求的规模将成长100倍,同时预期在摩尔定律逐渐衰减的现状下,全球前50大超级电脑的GPU运算量将在未来5年内成长15倍,同时以GPU加速运算的方式将成为延展摩尔定律的主要模式。
 
GPU的极致化应用:HGX-2和DGX-2
 
凭借在GPU计算方面的长期耕耘,2018年5月30日,英伟达宣布推出首款同时适用于人工智能和高性能计算的统一计算平台NVIDIA HGX-2。
 
我们知道,不管是AI还是HPC,它们对于计算力的要求都是很高的。而且AI和HPC在某些行业的算法是相通的,所以如何有效打通AI和HPC成为一个课题,NVIDIA HGX-2给出了自己的答案。
 
HGX-2采用了最新的NVSwitch互联技术,将16个Tesla V100 Tensor Core GPU连接。据介绍,它可提供每秒2千万亿次浮点计算的AI性能。作为参考,它的上代产品——去年于Computex 2017上发布的HGX-1,只装载了8个GPU。NVSwitch是NVIDIA在圣何塞GTC 2018大会上发布的最新GPU互联结构,在NVLink的基础上进一步进行了扩展创新,它的带宽比最好的PCIe交换机高出5倍,它可使多达16个Tesla V100 GPU同时以2.4TB/秒的速度进行通信。
 
接力登场的HGX-2平台具备多精度计算能力,可提供独特的灵活性。该平台能够针对科学计算和模拟进行高精度的FP64和FP32运算,并针对AI训练和推理进行 FP16 和 Int8 运算,以“多功能性”满足先进越来越多融合HPC和AI的应用对计算的需求。
 
NVIDIA称,HGX-2在ResNet-50训练基准下,创下了每秒15500幅图像的AI训练速度记录,可取代高达300台仅配备CPU的服务器
 
HGX-2的卖点在于,它既可以用于AI训练,也可以用于推理,同时还能够为HPC应用提供计算支持。在NVIDIA的命名体系中,HGX-T用于AI训练,HGX-I用于推理,而SCX系统则用于HPC。
 
NVIDIA将HGX-2描述为“构建模块”,制造商可使用它来构建适用于AI和HPC的系统。事实上,现在已经有多家计算系统制造商宣布计算推出基于HGX-2计算平台的系统。包括联想、云达科技、超微和纬颖科技四家服务器制造商,他们宣布计划于今年下半年将各自的基于HGX-2系统推向市场。此外,全球四大原始设备制造商(ODM)富士康、英业达、广达和纬创也正在设计基于HGX-2的系统,有望于下半年在全球几家最大型的云数据中心投入使用。
 
GPU除了游戏,事实上被证明更适合大规模计算,正因为如此,英伟达已经在GPU运算力的路上越走越远。以今年3月份GTC 2018大会上推出的DGX-2为例,在两块独立的GPU板卡上配备了16块Tesla V100 GPU,每块V100拥有32GB HBM2显存(共512GB),并且采用12个NVSwitch将16块GPU采用全线速互联的方式连接,使得任意两块GPU之间P2P总带宽都是300GB,处理器采用了两颗英特尔至强Platinum CPU,而存储方面则配置了1.5TB的标准内存,采用30TB的NVMe SSD,提供了更大的缓存空间,能够实现每秒2千万亿次浮点运算(2PFLOPS),性能比去年9月推出的DGX-1性能提高了10倍。
 
不管是HGX-2还是DGX-2都是NVIDIA在GPU计算方面的巅峰之作,NVIDIA将对GPU计算的最新思考融入其中,用户可以体验到最新的GPU计算力。
 
NVIDIA Isaac让机器人更聪明
 
除了在GPU计算方面的深耕,NVIDIA也在将人工智能引入机器人领域,比如Jetson平台。Jetson是NVIDIA推出的嵌入式人工智能超级计算平台,可以部署在诸多终端(可能是摄像头、无人机、机器人和无人小车等)之上,令其具备人工智能计算能力。而“嵌入式”则可以很好地解决这些终端要具备人工智能计算能力所要面临的带宽不足、延迟等问题。
 
在Computex 2018上NVIDIA正式推出包含全新硬件、软件和虚拟世界机器人模拟器的NVIDIA Isaac。黄仁勋表示:“AI是我们这一时代最强大的技术力量。第一阶段人工智能将实现全新的软件自动化水平,从而帮助诸多行业提高生产力;其后,人工智能与传感器和执行器相结合,将成为新一代自主机器的核心。终有一天,数十亿台智能机器将用于制造、送货上门服务、仓储物流等领域。”
 
NVIDIA Isaac的核心是Jetson Xavier,这是全球首款专为机器人设计的计算机。它拥有超过90亿个晶体管,可提供每秒30万亿次操作以上的性能,这一处理能力高于功能强大的工作站,同时能耗仅为照明灯泡的三分之一。
 
Jetson Xavier拥有6种高性能处理器,包括1个Volta Tensor Core GPU、1个8核 ARM64 CPU、2个NVDLA深度学习加速器、1个图像处理器、1个视觉处理器和1个视频处理器。这些处理器使其能够同时、且实时地处理数十种算法,以用于传感器处理、测距、定位和绘图、视觉和感知以及路径规划。如此水平的性能至关重要,它让机器人能够从传感器获取输入、定位自身、感知其环境、识别并预测附近物体的运动、推理出合理动作并安全执行。
 
NVIDIA为Jetson Xavier的模拟、训练、验证和部署提供了一个工具箱。该机器人软件包含以下内容:
 
Isaac SDK——一套API和工具,可借助全面加速的库,开发机器人算法软件及运行时框架。
Isaac IMX——Isaac 智能机器加速应用,是NVIDIA开发的机器人算法软件的集合。
Isaac Sim——高度逼真的虚拟仿真环境,可供开发者训练自主机器,并使用Jetson Xavier进行硬件在环测试。
在边缘上拥有这个水平的AI计算能力,自主机器可以用超人的能力感知周围的世界,从各种传感器中检测和识别它们周围的环境。
 
制造机器人能够与人类一同安全地工作并适应变化。物流机器人能够高效地搬运和管理库存,并将产品送货到家。服务机器人能够提升零售体验,并为病人和老人群体提供帮助。
 
当前,机器人行业正在迎来变革期,不管是制造行业还是物流仓储,机器人的应用场景越来越广泛。而且随着机器人研究的深入,未来将有更多领域引入机器人。NVIDIA Isaac让机器人具备了更强的“思考能力”,这将极大推动机器人产业的发展。
 
让AI无处不在 NVIDIA更多领域布局
 
如上所述,作为人工智能技术平台的全球领导企业,NVIDIA正在将人工智能引入到各个领域,比如游戏、专业视觉化、数据中心、汽车等领域。在每个领域,NVIDIA都有炙手可热的产品,从硬软件到解决方案上都进行了全面布局,并已经发布和交付了一系列极具竞争力和行业影响力的产品。例如专业可视化领域的Quadro,数据中心市场的Tesla芯片等。
 
借助在GPU方面的积淀,NVIDIA将GPU的计算力发挥到了极致。相信随着人工智能技术的深入发展,NVIDIA将会给我们带了无限可能。
]]>
2018-06-11 17:37:34
<![CDATA[英伟达nvidia联手HPE打造超强HPC解决方案]]> http://www.itsto.com//news/1611.html HPC领域正在取得前所未有的技术进步。但企业既想借助先进的HPC技术保持竞争力,又想将预算控制在范围内可能并不容易。借助搭载NVIDIA GPU的HPE解决方案,通过将AI和深度学习应用于关键数据,企业将能够促进增长并削减成本,并完善组织的流程和策略。
 
从洞察到盈利的循环
 
Gartner曾指出:“借助人工智能,企业拥有巨大的机遇,其可通过培育和使用智能来重塑业务。”当前市场环境中,数据被视为下一次创新飞跃的基础,竞争对手们也希望在其中保持竞争力。
 
但要想真正从AI和HPC解决方案中获益,您可能需要改变计算投资回报率的方法。可以通过增加另一维度的分析,即“从洞察到盈利的循环”来评估HPC对财务上的影响,而非仅仅考量拥有成本和生产效益。
 
深入洞察=丰厚利润
 
基于HPC的深度学习能够揭示洞察,使您的业务能够更完善、更智能化地运行。例如,基于基因组学的诊断能够降低医疗保健治疗费用;而生物信息学研究则可加速新药开发;金融领域能受益于深入洞察,在贸易和欺诈检测方面取得进展;制造商可通过深度学习减少产品瑕疵。
 
您可以从数据中获取洞察,并更快地实现货币化。举例来说,对于零售业的企业,深度学习可以帮助企业发现并理解用户隐藏的情绪,从而提高销售额。越早获得这种智慧,收入和盈利就能越快增加。
 
一切关乎吞吐量
 
计算能力的巨大进步催生了深度学习革命的热潮。搭载NVIDIA GPU的新一代HPC服务器使得庞大的工作负载分析成为可能,而这在几年前是难以想象的。HPC的进步体现在吞吐量方面,这是衡量HPC解决方案在特定时间段内能够分析多少数据的指标。
 
高效的“从洞察到盈利”循环有赖于强大的吞吐量。HPC硬件一端是大量数据,洞察则从另一端“流出”。更大的吞吐量意味着能够在更短时间内获得更多洞察,更多的洞察就等于为您带来更高的货币化能力。基于HPC深度学习的高吞吐量将会使企业更具竞争力,并在创新、用户互动等方面领先于业内同行。
 
基于NVIDIA实现最优HPC解决方案
 
具有最优吞吐量的HPC解决方案可提供最具盈利性的“从洞察到盈利”的周期以及最高的投资回报率。HPE与NVIDIA之间密切合作,力图达到这个目标。凭借强大的硬件、网络和内存支持,采用NVIDIA Tesla V100 32GB GPU的Apollo 6500 Gen10可大幅度提高您的AI和深度学习工作负载。 
 
每个Apollo 6500 Gen10都包含8个V100 32GB GPU,这是HPE服务器中拥有GPU数量最高的一款。该架构在单精度计算中可实现高达125 teraflops的理论峰值性能。此范围内的性能能够为实现健康的“从洞察到盈利”周期提供所需的高吞吐量。
 
Tesla V100是有史以来最先进的数据中心GPU,致力于加速AI、HPC和图形,且单一GPU可提供高达100个CPU的深度学习吞吐量性能。
 
NVLink连点成线,助力深度学习
 
Apollo 6500平台还包括PCIe和NVIDIA® NVLink™ GPU互联的两种方式。这些为您的IT部门提供了灵活的连接选项。第二代NVLink GPU互联可通过GPU到GPU通信助力深度学习流程。其他可提升深度学习和HPC的因素包括高带宽、低延迟的网络适配器。这些与GPU加速器紧密耦合,使系统能够充分利用网络带宽。另外,Apollo 6500和Tesla V100组合为您提供:
 
通过为350瓦加速器设计的电源和散热以及一致的信号完整性,为您的IT运营提供值得信赖的性能和可靠性
 
灵活的支持、企业级选项,且您可选择Ubuntu或企业级Linux发行版(Red Hat、SUSE和CentOS)
 
适用于不同工作负载的加速器拓扑,例如适用NVLink的高效混合型立体网络、以及PCIe中灵活的4:1或8:1的GPU:CPU比例
 
存储选项:您可安装多达16个前端存储设备 - 带有多达4个NVMe驱动器的SAS / SATA固态驱动器(SSD)其弹性、安全性和简易性适合HPC环境,更易于维护和升级,且采用了具有可访问性的模块化设计
 
借助HPEiLO 5(Integrated Lights-Out)和固件级别的安全性,提高系统管理工作的效率
 
针对不同数据中心的其他组合
 
HPE和NVIDIA正在提供领先的数据中心解决方案组合,为业务和行业带来变革,进而让您能够运行所有应用——从最基本的应用到任务关键型应用、深度学习,并自信地展开部署。
 
Apollo 6500并非HPE与NVIDIA在服务器方面的首款创新结晶。全球最畅销的服务器HPE DL380 Gen10会继续通过Tesla V100全高半长(FHHL)格式提供多功能性和灵活性。DL380最多支持三个双宽或五个单宽GPU以实现工作负载加速。
 
Tesla V100 for Hyperscale是一款专为超大规模数据中心设计的FHHL PCIe版本的Tesla V100,能够恰到好处地满足超大规模数据中心对性能和功耗的权衡。Tesla V100 PCIe的FHHL版本是深度学习推理工作负载的理想选择,充分利用了Volta架构的Tensor Core,并使大型数据中心能够在一定的功耗预算内实现最高的机架性能效率。
 
不可忽视的潜力:助力HPC和AI实现更好成就
 
可能您从前都不曾留意所有这些可能助力实现创新飞跃的潜在源头。然而如今,源自HPC深度学习的洞察让您有机会能够解决隐藏的问题,并以新的积极方式构建您的业务。HPE服务器与NVIDIA Tesla V100 32GB GPU的组合使之成为可能,其可提供极高的HPC性能,足以满足各种战略需求,助您实现“从洞察到盈利”的循环。
]]>
2018-06-08 17:26:58
<![CDATA[英伟达NVIDIA驱动自动化发展,推出Isaac机器人平台]]> http://www.itsto.com//news/1610.html        英伟达创始人兼首席执行官黄仁勋在Computex 2018上正式推出包含全新硬件、软件和虚拟世界机器人模拟器的NVIDIA Isaac,而NVIDIA Isaac的核心正是英伟达首款专为机器人设计的电脑系统Jetson Xavier。
  
  芯片设计公司英伟达一直是人工智能复兴的重要力量,在中国台湾台北举行的Computex 2018上,英伟达正式宣布推出支持下一代自主机器的新平台NVIDIA Isaac,为制造、物流、农业、建筑以及其他行业的机器人实现人工智能。英伟达首席执行官黄仁勋(Jensen Huang)表示,“AI是我们这一时代最强大的技术力量。第一阶段人工智能将实现全新的软件自动化水平,从而帮助诸多行业提高生产力;其后,人工智能与传感器和执行器相结合,将成为新一代自主机器的核心。终有一天,数十亿台智能机器将用于制造、送货上门服务、仓储物流等领域。”
 
  Nvidia Isaac的核心是Jetson Xavier,即英伟达首款专为机器人设计的电脑系统。Jetson Xavier拥有6种高性能处理器,包括1个Volta Tensor Core GPU、1个8核ARM64 CPU、2个NVDLA深度学习加速器、1个图像处理器、1个视觉处理器和1个视频处理器。这些处理器使其能够同时、且实时地处理数十种算法,以用于传感器处理、测距、定位和绘图、视觉和感知以及路径规划。不仅如此,Jetson Xavier包含超过90亿个晶体管,它拥有超过90亿支晶体管,并且运算能力超过30 TOPS(万亿次每秒),它只消耗30瓦的电力,是普通灯泡用电量的一半。Jetson Xavier(以及使用Isaac平台)的成本是1,299美元,而它提供的处理能力则与一台售价10,000美元的工作站相同。这样合理的价格和高性能将会为它带来不少客户。

                                            
  
  英伟达为Jetson Xavier的模拟、培训、验证以及部署等功能提供类似工具箱的作用。此款机器人软件由Isaac软件开发工具包(SDK)组成,也可以将其看作是让用户开发机器人算法软件和运行框架的工具。同时,这些工具都配有完全加速的函数库;它还包括了Isaac IMX或者Isaac智能机器加速应用程序,这是一套由英伟达开发的机器人算法软件。此外,它还包括了Isaac Sim——它是一个非常逼真的虚拟仿真环境,能够为开发者训练自动机器提供条件,并可以借助Jetson Xavier进行硬件测试。
 
  当然,真正有趣的不是英伟达的硬件本身,而是开发人员会用它做什么。现在英伟达的芯片已经开始用来驱动Fellow公司生产的机器人,而这款机器人正被劳氏公司试用。现在人工智能机器人革命才刚刚开始。
]]>
2018-06-07 17:37:43
<![CDATA[英伟达统合AI与计算,首推HGX-2云服务器平台]]> http://www.itsto.com//news/1609.html HGX-2云服务器平台可加速多精度工作负载;2千万亿次浮点计算处理能力创下全新AI性能纪录。NVIDIA今日推出首款同时适用于人工智能和高性能计算的统一计算平台NVIDIA HGX-2™。
 
HGX-2云服务器平台具备多精度计算能力,可提供独特的灵活性,为未来的计算提供有力支持。该平台能够针对科学计算和模拟进行高精度的FP64和FP32运算,并针对AI训练和推理进行FP16和Int8运算。这种前所未有的多功能性可满足现今越来越多融合HPC和AI的应用之所需。
 
多家领先的计算机制造商也于今日宣布计划面向市场推出基于NVIDIA HGX-2平台的系统。
 
NVIDIA创始人兼首席执行官黄仁勋在今日开幕的台北GTC上表示:“计算领域已不同从前。计算需求猛增,而CPU扩展的速度却呈放缓之势。配备Tensor Core GPU的NVIDIA HGX-2为业界提供了融合HPC和AI的多功能计算平台,这一强大的计算平台将助力解决全球面临的重大挑战。”
 
HGX-2可作为制造商的“构建模块”,用于构建适用于HPC和AI的最先进的系统。HGX-2在ResNet-50训练基准下,创下了每秒15500幅图像的AI训练速度纪录,可取代高达300台仅配备CPU的服务器。
 
它融合了NVIDIA NVSwitch™互联结构等突破性功能,将16个NVIDIA Tesla® V100 Tensor Core GPU无缝连接为单一巨型GPU,可提供每秒2千万亿次浮点计算的AI性能。最近发布的NVIDIA DGX-2™是首款采用HGX-2构建的系统。
 
NVIDIA HGX-1一年前于Computex 2017正式亮相;一年后,HGX-2接力登场。HGX-1参考架构被全球领先服务器制造商和大规模数据中心运营企业(包括AWS、Facebook和微软)广泛采用。
 
OEM、ODM系统有望于今年下半年面世
 
联想、云达科技、超微和纬颖科技四家领先的服务器制造商宣布计划于今年下半年将各自基于HGX-2的系统推向市场。
 
此外,全球四大原始设备制造商(ODM)富士康、英业达、广达和纬创也正在设计基于HGX-2的系统,有望于下半年在全球几家最大型的云数据中心投入使用。
 
NVIDIA GPU加速服务器平台系列
 
HGX-2属于NVIDIA GPU加速服务器平台系列,该系列构成了高品质服务器类生态系统,致力于提供最优性能,以满足各类AI、HPC和加速计算工作负载。
 
在主流服务器制造商的支持下,这些平台可为各类训练(如HGX-T2)、推理(如HGX-I2)和超算(如SCX)应用提供GPU、CPU和连接器产品的最优组合,紧密贴合数据中心服务器生态系统的需求。客户可选择特定的服务器平台,以满足自身加速计算工作负载组合之所需,并实现业界最佳的性能。
 
业界广泛支持
 
顶级OEM和ODM都表达了对HGX-2的大力支持:
 
“富士康一直致力于超大规模计算解决方案,并成功赢得了客户认可。我们很高兴与NVIDIA合作开发HGX-2项目,这是最有望满足AI和深度学习爆发性需求的解决方案。”
 
                                                                                                                                                                                                                                  ——富士康公司执行副总裁、鸿佰科技主席Ed Wu 
 
“英业达的客户包括许多全球大型数据中心运营企业。我们一直在为这些客户提供高性能、具有可扩展性、且设计上集稳健性和创新性于一体的服务器,并得到了业界认可。通过将HGX-2迅速融入到我们的未来设计中,我们将为自身产品组合注入最强大的AI解决方案,为全球各地的企业所用。”
 
                                                                                                                                                                                                          ——英业达IEC白盒产品中心负责人兼中国业务线总监Evan Chien
 
“NVIDIA HGX-2能够以每秒2千万亿次浮点计算能力处理AI和HPC密集型工作负载,使其更具吸引力。借助HGX-2服务器这样的构建模块,我们将能够快速开发新系统,以满足客户对于大规模高性能计算日益增长的需求。”
 
                                                                                                                                                                                                                                     ——联想DCG副总裁兼总经理Paul Ju
 
“作为领先的云计算推动者,广达致力于开发适用于各类创新用例的新一代云计算解决方案。正如我们所见,许多AI应用不断涌现,广达与NVIDIA的紧密合作能够确保客户受益于最新、最强大的GPU技术。作为HGX-2的发布伙伴,能够与NVIDIA这样重要的AI云计算推动者一起扩大GPU计算产品组合,我们也倍感荣幸。”
 
                                                                                                                                                                                                                                      ——广达电脑高级副总裁兼QCT总裁Mike Yang
 
“AI模型规模迅速扩大,有时训练会耗时数周。为解决这一问题,超微正在开发基于HGX-2平台的云服务器。HGX-2将能够对各种复杂的模型展开高效的训练。”
 
                                                                                                                                                                                                                                       ——超微总裁兼首席执行官Charles Liang
 
“能够与NVIDIA合作,我们感到非常荣幸。在当今的现代技术环境中,对AI云计算的需求层出不穷。我坚信,HGX-2系统的高性能和模块化灵活性将对学术、科学、政府应用等多重计算领域做出贡献巨大。”
 
                                                                                                                                                                                                                                        ——纬创企业级业务总裁Jeff Lin
 
“纬颖科技专注于提供各种超大规模数据中心和云基础设施解决方案。通过与NVIDIA的合作,HGX-2服务器构建模块将使我们能够为客户提供每秒2千万亿次浮点计算,以应对计算密集型AI和HPC工作负载。”
 
                                                                                                                                                                                                                                         ——纬颖科技副总裁Steven Lu
]]>
2018-06-04 17:37:13
<![CDATA[英伟达NVIDIA将AI人工智能与HPC融合了,究竟想做什么?]]> http://www.itsto.com//news/1608.html 计算的世界已经改变了,CPU的扩张已经变慢,而计算力的需求急速上升。但是,扩充CPU的作法已经不合时宜,且打造高效能运算(HPC)和AI的服务器复杂度不停攀升,几乎已到了系统设计的极限。
 
如何为这种不可能解决的问题找出方法,在5月30日举行的GTC Taiwan 2018大会上Nvidia首席执行官Jensen Huang(黄仁勋)给出了自己的答案。
 
NVIDIA的平台野望
 
回顾NVIDIA发展历程,从单纯地推出GPU,到协助国内外厂商打造GPU,再到提升消费者对计算机游戏的娱乐体验。虽然曾在智能手机市场失利,但近几年开始积极布局AI领域,也开始朝数据中心、车用领域发展。
 
从业务架构来说,NVIDIA先是将90% 的研发支出都投入到GPU 架构和CUDA 软件平台,继而将这种模式应用到各个平台:游戏、数据中心、人工智能以及自动驾驶。
NVIDIA在GPU市场一直处于领先地位,游戏业是GPU 最大的用户来源。而数据中心则是其增长最快的业务市场。
 
过去三年里,该部分业务收入年平均增长率85%,2018财年增长率为133%。这些增长来源于HPC(高性能计算机群)、云计算公司和AI 研究者等多种垂直领域。
 
在AI 技术方面,NVIDIA已经领先于其他竞争对手。2017年6月,英伟达发布了下一代拥有Tensor cores的Volta GPU, 依靠深度学习,Volta 比前代Pascal 快了5倍。Volta 已经被所有主流云计算供应商和服务器制造商采用。
 
此次通过发布NVIDIA HGX-2,NVIDIA正式将人工智能和高性能计算融合到一个平台中。
 
据了解,HGX-2作为云服务器平台,具备多精度计算能力,支持面向科学计算和模拟的高精度FP64和FP32计算,也支持AI训练和推理所用的FP16和INT8精度。HGX-2执行AI训练的速度,在ResNet-50基准上达到了每秒15500张图片,相当于300台只装了CPU的服务器。
 
GPU运算时代已经来临
 
在此次GTC Taiwan中,黄仁勋还表示,未来10年内,每年对于运算需求的规模将成长100倍,同时预期在摩尔定律逐渐衰减的现状下,全球前50大超级电脑的GPU运算量将在未来5年内成长15倍,同时以GPU加速运算的方式将成为延展摩尔定律的主要模式。
 
目前超级电脑已经成为现代科学发展重要工具,分别在分子建构、量子化学、量子力学、天气预报、气象研究、能源探索、物理模拟、数据分析与人工智能技术的发展过程中扮演重要角色,并且提供百万亿次或百亿等级运算效能。
 
而就OpenAI统计显示,未来5年内人工智能运算模型将成长30万倍,相比摩尔定律预期成长速度快3万倍。借由GPU加速能力,将可让数据、演算程式复杂度大幅提升,借此解决过往人力无法解决的运算需求。
 
黄仁勋再次强调,过去NVIDIA创造CUDA运算模式所带动的加速效益,同时说明未来借由GPU加速运算的模式将会持续扩大,预期在2028年全球运算需求将等同1000万组Volta架构GPU所推动效能。若以传统通过多组CPU堆叠构成超级电脑等级运算能力,将会占据大规模空间及高额电力花费,若以GPU替换的话,则可节省更多空间与电力损耗,同时带来更高加速效果。
 
另外,黄仁勋表示NVIDIA 正式启动全球顶尖 ODM 伙伴合作计划,鸿海精密,英业达,广达电脑和纬创这些全球设计生产大厂都将成为合作伙伴,加速因应 AI 云端运算的各种需求。
 
统一计算平台NVIDIA HGX-2
 
2018年5月30日,英伟达宣布推出首款同时适用于人工智能和高性能计算的统一计算平台NVIDIA HGX-2。
 
从产品线来看,HGX-2 是去年HGX-1 的升级版,后者也是亚马逊AWS、Facebook 以及微软等云服务的参考架构,而HGX-2 还在云服务平台之外,还能被应用到HPC(高性能计算机),成为业界首个可针对跨领域计算应用的标准平台。
 
HGX-2云服务器平台具备多精度计算能力,可提供独特的灵活性,为未来的计算提供有力支持。英伟达称该平台能够针对科学计算和模拟进行高精度的FP64和FP32运算,并针对AI训练和推理进行FP16和Int8运算,多样功能性可满足现今越来越多融合HPC和AI的应用之需。
 
HGX-2 核心部分使用16 个Volta 张量核心GPU,通过NVSwitch 互联结构组成一个庞大的核心群。作为单一的巨型GPU,HGX-2 提供2 petaflops 的AI 性能。而使用HGX-2 构建的第一个系统是最近发布的NVIDIA DGX-2 。
 
黄仁勋指出,HGX-2隶属NVIDIA GPU加速服务器平台系列产品之一,该系列产品串连整个数据中心服务器体系,适合每个大型市场,能因应不同AI、高效能运算及加速运算作业建议最适 GPU 与 CPU 配置组合。像是HGX-T针对超大规模训练及HPC;HGX-1针对大规模推论及智能影像分析功能(IVA);以及SCX-E针对数据中心、HPC、IVA、虚拟桌面基础架构(VDI)等。
 
黄仁勋说:“搭载Tensor Core GPU的英伟达HGX-2为行业带来了一款强大、通用的计算平台,能将HPC和AI结合起来,解决这个世界面临的巨大挑战。”
 
据了解,全球四大ODM厂商富士康、英业达、广达和纬创也正在设计基于HGX-2的系统,有望于下半年在全球几家最大型的云数据中心投入使用。
 
十多年前,NVIDIA决定从一家图形芯片公司转型成运算公司,并开始一砖一瓦地建构出促进GPU运算普及所需的基础建设跟生态系统。
 
十多年后的今天,NVIDIA转型的成果已经有目共睹。从最尖端的物理、医学研究,到当前最热门的人工智能和自动驾驶研发,NVIDIA的平台不断为开发人员提供更高的运算效能,也成为推动科技进步的引擎!
]]>
2018-06-01 17:24:29
<![CDATA[英伟达NVIDIA发布16路Volta大核心,512GB HBM2显存的HGX-2超算平台]]> http://www.itsto.com//news/1607.html 2017年NVIDIA宣布推出HGX-1超算,这是NVIDIA加入OCP开放计算联盟之后与微软合作推出的超算平台。今天在台湾地区举行的GTC Taiwan 2018大会上,NVIDIA创始人、CEO黄仁勋又宣布了HGX-2超算,号称是全球最强大的多精度计算平台,集成了16个Volta架构核心,512GB HBM2显存,浮点性能可达2PTLFOPS(2千万亿次)。
 
NVIDIA有自己主导的DGX-1超算,面向OCP联盟的HGX超算则可以由用户选择处理器,NVIDIA提供GPU加速芯片,HGX-1使用的是8路Tesla P100加速核心,现在的HGX-2则使用了16路Volta大核心,不意外的话就是GV100大核心,显存容量从之前的16GB提升到了32GB,16路总计512GB HBM2显存。

                                               
 
暴力堆料的后果就是超强的性能,HGX-2号称全球最强大的多精度计算平台,它既可以使用FP32、FP64高精度运算做科学计算、模拟,也可以使用FP16、INT8精度进行AI训练、推理,浮点性能高达2PFLOPS,也就是两千万亿次,这性能在TOP500超算中都能位居前列了。
 
至于售价,从直播及官网上现在还没有得到确切消息,不过之前老黄自家的DGX-2超算同样使用了16路Volta大核心、512GB HBM2显存,售价是39.9万美元,人民币差不多250万,HGX-2的CPU是可选的,不过总体价格估计也会在40万美元上下。
 
在这次的发布会上,联想、QCT、Supermicro以及Wiwynn也宣布将在今年底推出HGX-2系统。此外,全球四大ODM厂商广达、富士康、英业达及伟创力也在设计基于HGX-2的系统,预计今年晚些时候在一些云数据中心使用。
]]>
2018-05-31 17:09:47
<![CDATA[2018年H3C主网络三星级服务商]]> http://www.itsto.com//news/1606.html ]]> 2018-05-31 15:48:51 <![CDATA[黄仁勋:简单的AI项目NVIDIA是不会做的]]> http://www.itsto.com//news/1605.html 人工智能(AI)已经开始在各种垂直应用领域展现其应用潜力,往边缘节点移动的趋势也越来越明显。对于过去十多年一直大力推展GPU运算,并且在超级电脑、高效能运算、AI等领域已有卓越成就的NVIDIA而言,往边缘运算推进固然是势在必行,但该公司将会非常策略性地只专注在某些应用上。
 
NVIDIA执行长黄仁勋认为,简单的题目不值得做,只有高难度的课题才值得该公司投入。对科技公司来说,追求获利固然重要,但更重要的是为推动科技进步做出贡献。
 
十多年前,NVIDIA决定从一家图形芯片公司转型成运算公司,并开始一砖一瓦地建构出促进GPU运算普及所需的基础建设跟生态系统。十多年后的今天,公司转型的成果已经有目共睹。从最尖端的物理、医学研究,到当前最热门的人工智能、自驾车开发,NVIDIA的平台不断为开发人员提供更高的运算效能,也成为推动科技进步的引擎。
 
展望未来,AI无处不在的时代很快就会到来,并为科技业者带来可观的机会。以NVIDIA自身为例,资料中心相关产品已经是该公司的第二大营收来源,而且该部门最新一季的营收仍缴出年成长71%的好成绩。AI需求的成长力道之强劲,由此可见一斑。AI革命才刚开始而已,未来AI的训练跟推论不只会在资料中心执行,手机、音箱甚至冰箱等边缘装置,也会支援机器学习(ML)推论。
 
黄仁勋指出,边缘运算将是一个非常庞大的市场,NVIDIA一定不会缺席。但该公司会慎选切入市场的路径,不会什么都做。举例来说,手机、智能音箱或家电这类应用,未来虽然都会有机器学习推论的需求,市场规模也不小,但这类产品对AI的需求其实很单纯,不值得NVIDIA投入。各种自主机器(Autonomous Machine),像自驾车、智能机器人、智能制造这种高复杂度的题目,才是NVIDIA想挑战的课题。
 
事实上,看似复杂的各种AI,本质上做的事情都一样:让机器拥有学习能力,进而让软件自动编写新的软件来解决问题,实现更高程度的自动化。因此,NVIDIA对各种复杂的自动化应用,都有很高的兴趣。
 
因此,黄仁勋认为,虽然NVIDIA目前将资源优先投注在运输、医疗等领域,但制造业的AI应用也是很有潜力的市场,未来该公司将有所布局。现在的制造业的自动化大多还很僵固,设备只能做固定、重复的工作,但倘若生产设备导入AI,制造业将会变得更灵活,更有效率。
]]>
2018-05-31 15:32:42
<![CDATA[美超微基于全新的NVIDIA HGX-2平台发布超级服务器]]> http://www.itsto.com//news/1604.html 新的超级服务器运算速度达到2 Petaflops,是全球最为强大的人工智能和高性能计算云服务器平台。

NVIDIA HGX-2平台专为新一代人工智能设计,拥有16个Tesla V100图形处理单元(GPU),NVSwitch则利用超过80,000个Cuda核心,为深度学习和计算工作负载,提供无与伦比的强大性能
 
企业计算、存储和网络解决方案以及绿色计算技术领域的全球领导者美超微电脑股份有限公司(Super Micro Computer, Inc.) (NASDAQ: SMCI)今天宣布,该公司成为首批采用NVIDIA®(英伟达)HGX-2云服务器平台来开发全球最强大的人工智能(AI)和高性能计算(HPC)系统的公司之一。
 

 
美超微总裁兼首席执行官梁见后(Charles Liang)表示:“为了帮助应对快速扩大的人工智能模型的规模 -- 有些模型几周就要培训出来,美超微正在开发基于HGX-2平台、将让性能提升一倍有余的云服务器。HGX-2系统将会支持对复杂模型进行高效训练。它能够借助NVLink和NVSwitch,将16个互联Tesla V100 32GB SXM3 GPU结合到一起,作为一个统一、运算速度达到2 Petaflops(每秒千万亿次)的加速器来开展工作,内存总量达到0.5太字节,提供前所未有的强大计算能力。”
 
从计算机自然语言到自动驾驶汽车,人工智能方面的快速发展已经让各行各业都发生了转变。为了支持这些能力,人工智能模型在规模上也呈爆炸性发展。在释放新的科学观点之际,高性能计算应用在复杂程度上面也呈现类似的发展态势。
 
美超微基于HGX-2的系统将能为数据中心提供超集设计,加速人工智能和高性能计算在云端上的发展。在经过调整优化以后,美超微的HGX-2服务器将能为快速模型训练,提供最高水平的计算性能和内存。
 
NVIDIA副总裁、加速计算部门总经理伊恩 - 巴克(Ian Buck)说:“人工智能模型在复杂程度和规模方面均呈爆炸性发展态势,因此研究人员和数据科学家需要达到新层次的GPU加速计算。HGX-2能够支持为以更快的速度培训先进人工智能处理这些巨大的新模型,同时也能在数据中心中节省大量成本、空间和能源。”
]]>
2018-05-30 17:21:17
<![CDATA[英伟达再发威:新推出GPU服务器标准平台]]> http://www.itsto.com//news/1603.html 3月份的2018 GTC结束后,英伟达今天在台湾开了个“专场”,发布了不少新产品,其中包括英伟达GPU服务器标准平台HGX-2和全新的RTX技术,并且黄教主还坚称英伟达GPU“买得越多,省的越多”。
 
黄仁勋说,今天这场演讲聚焦三大主题:
 
1、如何持续强化GPU运算能力。
 
2、庞大的系统、基础架构以及软件生态系统正在围绕英伟达的平台而建立。
 
3、庞大的终端市场商机以及英伟达建立的软件平台将合作运作。
 
在新品方面,英伟达宣布推出英伟达NGX-2以及全新的NVIDIA RTX技术。黄教主还不忘“推销”英伟达世界最大的GPU,售价39.9万美元,“好便宜啊!”
 
计算力还在增长,英伟达GPU“买得越多,省的越多”
 
黄仁勋还讲了计算力:五年成长30倍。
 
这是OpenAI最近公布一张图表,表示训练AI模型的运算五年内将成长30万倍,这比摩尔定律快3万倍。

 
通过增加数据和GPU效能,机器可以编写非常复杂的软件,不需要人工编写,并解决近期无法解决的问题。
 
未来的运算将融合模拟和机器学习方法,这对英伟达提出了挑战。黄仁勋提出“GPU再造”的口号,创造了Tensor Core GPU,它融合了HPC和AI运算的新架构。

 
Tensor Core GPU具有多种精度,支持高运算 FP64、FP32、FP16、Int8和单周期4X4矩形乘法累加起来进行深度学习。
 
Volta是第一款Tensor Core GPU,并采用125张Tensor TFLOPS来增强AI,比以前的GPU快10倍。
 
NVSwith是一种新型高频宽交换器,其协议可扩展跨16个Volta Tensor 核心GPU的单晶片内建记忆体。程序员可看到具有2 PFLOPS性能的单一512GB GPU。
 
3月GTC发布的英伟达DGX-2是有史以来最大的GPU,世上第一个2 PFLOPS系统,512GB HBM2,重350磅(相当于两个黄仁勋)。
 
6个月前, DGX-2的加速套件比DGX-1的性能提高了10倍!
 
售价39.9万美元让黄仁勋直呼“便宜”,更关键的是,一台DGX-2的效能媲美300台双CPU服务器,且只要1/8的价格与1/18的功率。
 
“买的越多,省得越多。”
 
重磅发布HGX-2平台,全新NVIDIA RTX技术亮相
 
现在,打造HPC与AI的服务器相当复杂,几乎已达到系统设计的极限。
 
英伟达今天宣布推出NVIDIA GPU服务器标准平台HGX-2。
 
HGX-2为DGX-2的组件,包含16个Volta Tensor核心GPU,完全连接。
 
目前,HGX-2加入英伟达服务器系列平台,提供全新模式的超效能运算。下面是平台家族一览:
 
HGX-T对于超大规模训练及HPC
HGX-I针对超大规模推理及IVA
SCX-E针对资料中心、HPC、IVA、VDI及渲染
 
售价方面,英伟达没有官方公布,不过黄仁勋在演讲时随口说了句“20万美元”(还是以官方为准)。
 
另外,在GPU的效能和应用方面,黄仁勋举了几个例子:
 
5年前Alex Krizhevsky用两个GTX 580 GPU花6天时间成功训练AlexNet,而一台DGX-2仅需18分钟就能够相同目标,提升了500倍。
 
除了用于AI等领域,GPU在媒体与娱乐方面每年对超过十亿张影像进行渲染。
 
电脑绘图是GPU发展的驱动力,用不满足于运算效能,同时这也是一个巨大的产业。
 
英伟达还宣布推出全新集10年研究大成于一身的NVIDIA RTX技术。NVIDIA RTX结合即时绘图、加速光线追踪与深度学习的各项突破性技术,首度针对高逼真度图像渲染进行加速。
 
RTX 是15年前自NVIDIA发明可编程即时渲染技术以来最重要的突破。
]]>
2018-05-30 16:52:56
<![CDATA[英伟达NVIDIA涉足医疗,极力研发医疗成像AI平台]]> http://www.itsto.com//news/1602.html         NVIDIA在计算机绘图领域营收持续成长,后来跨足自驾车研发,最近甚至放眼医疗产业。据报导,NVIDIA近日在GPU技术大会(GTC)发表新的人工智能(AI)平台Clara,运用AI打造虚拟医疗成像平台。
 
  NVIDIA医疗业务副总裁Kimberly Powell表示,该公司正在建立医疗成像运算平台,亦即虚拟医疗成像的超级计算机,结合近5年所有现代运算技术,举凡云端、视觉化和图形处理器(GPU),对医疗产业做出贡献。

                                                            
 
  这项技术将连结既有设备,Powell表示,Clara虚拟平台适用于医院的资料集,虚拟化所有设备的作业,既不分型态也是远距的,可在显示器呈现所有信息。
 
  Powell指出,NVIDIA研发医疗成像将近10年,近期只是把重心转移到AI,以计算机运算提高影像质量。NVIDIA跟医疗机构和科技大厂合作过,举凡麻州总医院(Massachusetts General Hospital)和梅奥诊所(Mayo Clinic),以及GE(General Electric)和Nuance Health。
 
  NVIDIA暂时锁定医疗成像层面,但未来会把AI技术应用到其它医疗层面。Powell认为,NVIDIA的自驾车经验对于跨足医疗产业大有帮助,如今Clara人工智能平台仍处于内部测试阶段,但未来势必会协助医疗产业解决重大问题。
 
  接下来NVIDIA会把深度学习应用于基因体学和药物研发,还有以AI技术管理电子病历,一旦做好资料管理和集成,个人化医疗就得以付诸实现。
]]>
2018-05-28 17:41:48
<![CDATA[NVIDIA将于7月份推出GXT 1180 FE版:12nm图灵架构+GDDR6显存]]> http://www.itsto.com//news/1601.html 距离NVIDIA 10系显卡的发布已经过去两年,很多玩家纷纷表示等待新一代显卡的时间太长了,近日关于NVIDIA 11系显卡的消息越来越多被曝光。根据Tom's Hardware的一份最新的报道显示,NVIDIA有望在7月份发布GTX 1180 Founders Edition,这时间跨度相比以往确实有点大了。

                                                                                           
 
报道称,GTX 1180将会采用12nm工艺制程,Turing(图灵)架构,最快也要6月份开始量产。在6月15日左右将GPU和显存交付给其合作伙伴 AIC,非公版的显卡也会在今年的8、9月份陆续登场。另外,技嘉近日也表示,搭载新一代NVIDIA移动显卡的Aero 15X笔记本将在年底前发布,届时,我们也可以看到移动端的NVIDIA显卡产品。还有Quadro系列专业显卡则将在今年8月份的Siggraph大会登场。
 
尽管报道并未透露显卡的相关参数,但我们可以从外媒Wccftech之前的报道中了解到11系显卡的相关资料,GTX 1180拥有3584颗流处理器,主频1.6GHz~1.8GHz,配以8~16GB GDDR6显存。功耗在170~200W。

                                                                                          
 
至于预计在GTX 1180上市后几个礼拜推出的GTX 1170,则拥有2688颗流处理器,主频1.5~1.8GHz,同样配以8~16GB GDDR6显存,功耗在140~160W。按照目前的参数,你会更喜欢GTX1180还是GTX 1170呢?
 
根据Digitimes的意思,NVIDIA已经延长了旗下GPU的生命期,也就是说,像这样两年才换代的做法今后可能就是常态了。目前对于下一代显卡的命名还没有一个确切的方案,NVIDIA没有正式公布是命名为“GTX 11XX”系列还是“GTX 20XX”系列,不知道聚友们更喜欢哪个命名呢?按照多家媒体报道综合,绝大多数选择命名为“GTX 11XX”系列。
]]>
2018-05-25 17:32:35
<![CDATA[佐治亚理工学院:利用NVIDIA GPU打造为人类“穿衣服”的机器人]]> http://www.itsto.com//news/1600.html 在美国,每天有超过100万人需要借助外力来辅助他们穿衣服,这其中包含伤患人士、残障人士以及年迈衰弱的老人。为了缓解这一问题,佐治亚理工学院的研究人员打造了一款能帮助人们穿衣服的深度学习机器人。
 
 “机器人要做的是学会‘感同身受’,了解一个人需要帮助时的感受是怎样的”。佐治亚理工学院机器人博士生Zachary Erickson说。“当机器人给人穿衣服时,它需要通过它的手指或夹持器来感知,并学习人类被帮助穿衣服时是怎样一种感受。”
 
这款名为PR2的机器人在AWS云平台 (Amazon Web Services cloud) 上使用NVIDIA  Tesla V100 GPU进行训练,它采用了cuDNN加速的Keras和TensorFlow深度学习框架。该系统分析了近11000个机器人给人类手臂穿衣袖的模拟样本。
 
 “从这些例子中,机器人学会了判断给人类穿衣服需要怎样的力道。从某种意义上说,模拟实验让机器人学会了人类接受帮助时的感觉。”
 
研究人员称,该机器人已经学会对不同方式下的穿衣效果进行预测。机器人使用这些数据来做出动作,确保自然舒适地为人类穿衣。
 
                                    
佐治亚理工学院机器人博士生Zachary Erickson(左)、佐治亚理工学院生物医学工程副教授Charlie Kemp(右)与这款AI机器人的合影
 
 “如果让我去帮助一个人穿衣打扮的时候,我会很有经验。”“我知道穿衣是怎样一种感觉,了解应该做什么或不该做什么,但机器人并不懂这些经验。” 佐治亚理工学院生物医学工程副教授Charlie Kemp表示。“不过,通过模拟机器人可以获得一些类似的体验,这个过程既有对布料和人的模拟,也包括学习人的感受。”
 
目前,该机器人只需10秒左右就能完成给一只手臂穿袖子的任务。研究团队表示,如果要实现机器人帮助人类全面着装的愿望,还需要许多更进一步的研究。
]]>
2018-05-25 16:57:03