解读“中国量子计算机”,比神威·太湖之光还厉害?

2017年05月04日 09:05    eechina
关键词: 量子计算
 量子位 报道 | 公众号 QbitAI

  今天中科院微信发布了一个“重磅消息”:中国量子计算机诞生。

  这么说多少有一点夸张。

  这件事实际上是中科大潘建伟、陆朝阳、朱晓波和浙大王浩华教授等,自主研发了10比特超导量子线路样品,通过发展全局纠缠操作,成功实现了目前世界上最大数目的超导量子比特的纠缠和完整的测量。

  进一步,研究团队利用超导量子线路演示了求解线性方程组的量子算法,证明了通过量子计算的并行性加速求解线性方程组的可行性。

  潘建伟说:这是历史上第一台超越早期经典计算机的基于单光子的量子模拟机,为最终实现超越经典计算能力的量子计算奠定了基础。

  官方公布的实验测试声称,该原型机的取样速度比国际同行快至少24000倍,同时,通过和经典算法比较,也比人类历史上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)运行速度快10-100倍。

  相关报道中还引用了一个例子:“如果现在传统计算机的速度是自行车,量子计算机的速度就好比飞机”。而且进一步表示:量子计算机对特定问题的处理能力可超过目前最快的“神威·太湖之光”超级计算机。

  潘建伟教授一直在光量子计算机领域进行研究,至少在2007年,潘建伟研究组的“光量子计算机的物理实现和算法应用”,就曾获评中国高等学校十大科技进展。

  而关于光量子计算机的相关研究,也一直有一些争论。

  那么,到底怎么看待量子计算机?真的能比超级计算机“神威·太湖之光”更厉害?超算和人工智能到底有什么关系?

  带着种种疑问,量子位火线对话浪潮人工智能与高性能产品部总经理刘军。尝试找到答案。

  比超算还厉害?

  对于今天发布的“中国量子计算机”,刘军表示还没有看过具体的产品和论文,但他指出报道中关于自行车和飞机的比喻,以及说量子计算机超越神威·太湖之光的说法,都是不对的。原因有三个:

  1)相关产品还没有正式的商业化应用

  2)几年前美国在研究,但只是样机给Google之类的测试,距实际应用还有很远

  3)目前只应用在几个少量领域,多数场景还不行

  另外也有朋友对量子位表示,量子计算目前非常依赖算法,只有在解决特定问题时才能起效。而且量子态的长时间存储比较困难,目前还难以支撑大规模计算,相关研究只停留在理论阶段。

  总而言之一句话:应用问题是目前量子计算最核心的问题。大部专业场景还用不上量子计算机,未来可能比较适用于安全性要求高、加密解密等方面的工作。因此刘军说跟神威·太湖之光相比并不合适。

  神威·太湖之光,是我国自主研发的超级计算机,也是目前全球排名第一的超级计算机,速度比第二名“天河二号”快出近两倍。

  2015年,美国宣布对中国禁售高性能处理器。一年之后,中国就自主研发出超级计算机神威·太湖之光。也是一件相当提气的事情。

  量子位问刘军其中的缘由。

  这位业内人士回答说:首先是国家布局早,国防科大和江南计算所都是军方背景的研究队伍,而且国家重视,列入了战略级目标中。

  其次更直接的是被逼得没办法,像美国对中国禁运,最尖端的部件不给你了,于是刺激了中国必须要自主开发做这个事情——美国人实际上干了一件很愚蠢的事情。

  超级计算机神威-太湖之光作为国之重器,目前对于人工智能的不少问题,几乎就像屠龙刀斩蛇一般——实在太委屈了。刘军笑称,现在只有超大规模的科学工程计算仿真问题,才“配”动用这把国家屠龙刀。

  顺着这个话题,继续聊聊超算和人工智能。

  早在AlphaGo击败李世石、并让深度神经网络、机器学习和人工智能“闻名”于千家万户之前,以服务器和计算力为主业的浪潮内部,就已经在早几年里感知到了这种变化。

  特别是对刘军来说,这种AI大潮汹涌而至的感觉,没有人比他更有话语权了。尤其是今年以来,他的头衔从浪潮集团高性能服务器产品部总经理,新近变更为了浪潮人工智能与高性能产品部总经理。

  而更重要的是这种title变化背后展现出的AI产业趋势。

  如果我们把BAT、360、搜狗、今日头条,Face++等企业看作人工智能时代的掘金者,那从“浪潮”这个卖水者背后,也能窥见AI潮水涌动的方向。

  意料之外:GPU本为超算而生

  在接受量子位专访中,刘军被问到“人工智能”时的第一个反应是:意料之外。

  他回忆称,现在这个人工智能热潮让他最明显感知到是3年前,当时还没有AlphaGo大战李世石的史诗级事件,但因为BAT在内的客户,已经开始有了更大计算量和更多计算力方面的业务——“我们把它看作一种新的方法和工具,让我们去处理原来大数据的这些问题。”

  之前,刘军未想过超算和AI会带来这样结合性的历史机遇,而从3年前开始,他们感知到一些业务正在变得不同。

  让这一切变得不同的最大变量是GPU的出现。

  首先,GPU可能现在已经广为人知,是人工智能中最核心的芯片应用,但GPU的诞生,当时最主要的目的却是希望解决超算和高性能计算中的问题。

  “NVIDIA的创始人黄仁勋发明GPU,当时最主要想做超算和高性能计算。但当时他最主要的竞争对手是Intel,以及更现实的问题是所有的软件都跑在Intel的CPU集群上,所以如何把软件移植过来,是最头疼的问题。”

  然而意料之外的是,搞神经网络的人发现了GPU,并发现GPU对加速训练的性能提升帮助很大,于是开始带动了整个用GPU来做深入神经网络的热潮。

  互联网公司升级:框架是关键一步

  毫无疑问,这股浪潮也影响到了中国互联网公司。但在2015年以前,这些公司并不知道如何利用GPU实现神经网络的训练。

  刘军表示,当时包括科大讯飞、搜狗和奇虎360等公司,都在寻求解决方案,即如何做应用的迁移优化,而浪潮的角色,就是帮自己的这些超算业务里的客户,把CPU的应用转到GPU上。

  不过,这并不是一蹴而就的事情。刘军认为当时虽然浪潮服务的客户有了把应用迁移到GPU上的需求,但其中面临最现实的挑战来自“人才”——懂GPU的人实在有限,人力资源也遭遇紧缺。

  于是这其间第二个关键的变量是Caffe之类的框架。

  刘军将Caffe的出现比喻成“轮子”,是加快整个AI这辆汽车往前的关键性发明。自此之后,互联网公司和研究人工智能的公司就有了较为便利的工具,能够快速把原来的数据通过深度学习的方法转化成比较强的推理识别的业务应用。

  “如果没有Caffe这样的框架,现在看到的绝大多数的人工智能可能还在探索怎么编写程序、以及如何实现想要的东西,所以’轮子’出现,整个进度一下子就上升了很多。”

  超算和AI因何交汇?

  当然,除了GPU和Caffe带来的加速,刘军还认为超算的发展变革,正在和人工智能交织在一起,而这也是他的职务变成浪潮人工智能与高性能产品部总经理的原因。

  “人工智能”并非为加而加,“高性能”保留也并非没有缘由。

  刘军介绍称,目前服务的客户来看,图像分析的样本量级大约为百亿级,而语音分析也达到了十万小时级。随着AI的应用范围拓展,训练数据的样本量越来越大,对并行存储容量和带宽提出了新挑战。

  他表示,从高性能计算能力支撑来讲,深度学习需要高容量、高带宽的并行存储,高带宽、低延时的互联网络,需要更大规模的GPU集群,同时需要专用的神经网络芯片。

  刘军指出的具体解决方案分线上和线下。

  线下平台方面,主要有X86 CPU同行并行计算和GPU/MIC异构并行计算。因为线下训练涉及的数据量非常大,往往能够达到PB级,计算和通信十分密集,由于深度神经网络(DNN)、循环神经网络(RNN)、卷积神经网络(CNN)等算法往往可扩展性不高,需要在节点内进行高效计算。

  线上平台方面,则有X86 CPU同构并行计算、GPU/MIC异构并行计算,以及FPGA异构并行计算。

  这种方案主要基于用户请求。由于线上产品往往伴随着亿万级别的用户和用户请求,需要成千上万个节点来实时响应,这就要求线上平台低功耗且高性能。

  作为浪潮方面解决方案的直接负责人,刘军认为FPGA正在成为潮流。

  刘军解释称,原来大家一直用的比较多的是CPU,因为CPU大环境比较成熟,部署起来也比较方便。

  现在在训练端大家越来越多的用GPU,所以在前端推断端云端部署的时候,越来越多的人开始部署GPU。因为它的模型直接过来放在上面就可以用。

  第三个方向也是浪潮在做的FPGA,FPGA的方式天生的就比较适合于并发的低延迟的处理简单的小任务,现在用FPGA在云端处理推理端。

  不过现在用户除了广泛接纳CPU、GPU外,他们也正在尝试新的趋势,目前之所以FPGA的异构计算模式成为深度学习选择,核心关键是:低功耗、高性能、易编程。

  值得注意的是,超算和人工智能的实际结合也正在越来越多地发生。

  就在近期结束的ASC2017世界大学生超算竞赛中,全球最快、中国最知名的超级计算机神威-太湖之光就成为了总决赛的计算平台。其中具体领域涵盖超算系统设计、人工智能、基因测序等。

  而人工智能方面,则基于百度的深度学习开源平台PaddlePaddle,要求参赛者在3000W额定功耗下搭建超算系统竞赛平台、建模计算并对瞬息万变的交通情况做出预测,并且帮助车辆选择最合适的行驶路线。

  竞赛提供给各队伍在上百条道路上约50个工作日的历史交通数据,要求他们预测每条道路在某工作日早高峰的道路交通状况,最终,北京航空航天大学、清华大学、俄罗斯乌拉尔联邦大学等参赛队伍取得了较高精度的交通预测结果。

  不过,刘军对量子位表示这只是“牛刀小试”。主要目的是希望借助竞赛,培养更多人的兴趣,“让更多人知道它、了解它、熟悉它,为下一步生态圈内的软件开发培养兴趣和习惯。”

  这也是这位站在超算和AI交叉路口的专家,对目前最大挑战的看法——中国有了自主研发的超算,并且实现了全球最快,但现在还不到“满血”应用和服务于各种工程的爆发期,因为整个软件生态和开发生态还有待建设。(完)

  此前,图灵奖得主Raj Reddy接受量子位专访时表示,计算能力的进步,将推动人工智能和相关算法的继续飞跃。
欢迎分享本文,转载请保留出处:http://www.eechina.com/thread-362763-1-1.html     【打印本页】
您需要登录后才可以发表评论 登录 | 立即注册

相关文章

厂商推荐

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
回顶部