NVIDIA GPU Cloud进一步扩展,可供数十万采用NVIDIA桌面级GPU的AI研究人员使用

发布时间:2017-12-7 15:20    发布者:eechina
关键词: GPU , TensorRT , 推理加速器 , 人工智能
NGC的进一步扩展包括:可使用NVIDIA TensorRT推理加速器、兼容ONNX、即时支持 MXNet 1.0

NVIDIA今日宣布将NVIDIA GPU Cloud (NGC)支持扩展至NVIDIA TITAN,使数十万采用桌面级GPU的AI研究人员能够利用NGC的强大功能。

NVIDIA还公布了NGC的功能扩展,包括针对NGC容器注册新增的软件和其他主要更新,为研究人员提供了更广泛、更强大的工具,有助于其开展AI和高性能计算研发。

采用基于NVIDIA Pascal架构的TITAN GPU的客户可即刻注册免费NGC帐户,获得针对GPU优化的深度学习与HPC软件和工具目录的全面访问权限。其他可支持的计算平台还包括NVIDIA DGX-1、DGX Station以及 Amazon EC2上启用NVIDIA Volta的实例。

NGC容器注册的扩展步伐迅速,其中可用的软件包括针对NVIDIA优化的深度学习框架(如TensorFlow和PyTorch)、第三方管理型HPC应用程序、NVIDIA HPC可视化工具以及NVIDIA的可编程推理加速器NVIDIA TensorRT 3.0。

NVIDIA 副总裁兼企业系统部总经理 Jim McHugh表示:“NVIDIA GPU Cloud旨在为AI开发者提供所需的软件,助力其完成开创性的工作。如今,针对GPU优化的软件已经可为数十万采用NVIDIA桌面级GPU的研究人员所用,NGC将成为推进人工智能突破的催化剂,也将成为全球开发者的首选资源。”

GE Healthcare是率先采用NGC的企业之一。作为首家采用NGC的医疗设备制造商,该公司正在利用NGC容器注册的深度学习软件,加紧步伐将全球最先进的AI引入其全球范围内的50万台成像设备中,旨在提高病患护理水平。

全新 NGC容器、及其更新与特性
除了使NVIDIA TensorRT可用于NGC容器注册,NVIDIA还宣布了以下NGC更新:

•        支持面向TensorRT的开放神经网络交换 (ONNX)
•        即时支持和使用首版MXNet 1.0
•        可使用百度PaddlePaddle AI框架

ONNX是Facebook和微软最初创建的开放格式,开发者可通过此格式,在不同框架之间交换模型。在TensorRT开发容器中,NVIDIA创建了可将ONNX模型部署至TensorRT推理引擎的转换器,让应用程序开发者能够更轻松地将低延迟、高吞吐量的模型部署至TensorRT。

这些附加功能让开发者能够一站式地进行软件采购,以支持其从研究、应用开发到训练和部署的所有AI计算需求。

NGC于十月份正式推出,亦面向AWS的NVIDIA Volta GPU用户、以及所有NVIDIA DGX-1和DGX Station用户免费提供。日后,NVIDIA将持续扩大NGC的可用范围。

有关NGC的更多信息,请访问www.nvidia.com/gpu-cloud
本文地址:https://www.eechina.com/thread-520587-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表