谷歌定制机器学习芯片强悍:比GPU加CPU至少快15倍

发布时间:2017-4-7 09:33    发布者:eechina
关键词: TPU , TensorFlow , 机器学习
谷歌开发定制芯片,它可以提高机器学习算法的运算速度,这不是什么秘密。谷歌管这些处理器叫作Tensor Processing Units(简称TPU),2016年5月,谷歌在I/O开发者大会上首次展示了TPU,之后再也没有提供更多细节,谷歌只是说它正在用TPU优化TensorFlow机器学习框架。今天,谷歌公布了更多内容。

根据谷歌自己制定的基准,TPU执行谷歌常规机器学习任务时,速度比标准GPU/CPU组合产品平均快了15倍至30倍。标准GPU/CPU组合产品将英特尔Haswell处理器与Nvidia K80 GPU安装在一起。数据中心极为重视能耗,使用TPU后每瓦特性能(也就是TeraOps/Watt,每万亿次/瓦特)提高了30-80倍。请注意,谷歌提供的数据是在生产过程中使用机器学习模型时获得的,并不是最初创建模型时的数据。

谷歌还表示,大多数架构师优化芯片是为了提高卷积神经网络的性能,不过卷积神经网络只占了数据中心负载的5%,大部分应用使用的是多层感知器神经网络。

2006年,谷歌开始研究如何将GPU、FPGA、定制ASICS应用于数据中心。不过当时并没有太多应用因为特殊硬件获益,许多繁重的任务可以用数据中心多余的硬件完成。

到了2013年情况开始改变,当时谷歌认为DNN将会变得流行起来,数据中心的计算需求将会翻倍,如果用传统CPU计算成本相当高。正因如此,谷歌启动一个项目,用定制ASIC完成推算,采购现在GPU用于训练。谷歌报告称,与GPU相比,将成本效益提高10倍就是它的目标。

--新浪科技

本文地址:https://www.eechina.com/thread-359804-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

相关视频

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表