英特尔全新神经拟态系统Hala Point,有望降低AI应用能耗,推进实时持续学习

2024年04月19日 11:53    发布者:录余
作为英特尔首个神经元数量达到11.5亿的神经拟态系统,Hala Point为更高效、规模更大的AI开辟了道路。
英特尔发布了代号为Hala Point的大型神经拟态系统。Hala Point基于英特尔Loihi 2神经拟态处理器打造而成,旨在支持类脑AI领域的前沿研究,解决AI目前在效率和可持续性等方面的挑战。在英特尔第一代大规模研究系统Pohoiki Springs的基础上,Hala Point改进了架构,将神经元容量提高了10倍以上,性能提高了12倍。英特尔研究院神经拟态计算实验室总监Mike Davies 表示:“目前,AI模型的算力成本正在持续上升。行业需要能够规模化的全新计算方法。为此,英特尔开发了Hala Point,将高效率的深度学习和新颖的类脑持续学习、优化能力结合起来。我们希望使用Hala Point的研究能够在大规模AI技术的效率和适应性上取得突破。”Hala Point在主流AI工作负载上展现了出色的计算效率。研究显示,在运行传统深度神经网络时,该系统能够每秒完成多达2万万亿次(20 petaops)运算,8位运算能效比达到了15 TOPS/W,相当于甚至超过了基于GPU和CPU的架构。Hala Point有望推动多领域AI应用的实时持续学习,如科学研究、工程、物流、智能城市基础设施管理、大语言模型(LLMs)和AI助手(AI agents)。目前,Hala Point是一个旨在改进未来商用系统的研究原型。英特尔预计其研究将带来实际技术突破,如让大语言模型拥有从新数据中持续学习的能力,从而有望在AI广泛部署的过程中,大幅降低训练能耗,提高可持续性。在执行AI推理负载和处理优化问题时, Loihi 2神经拟态芯片系统的速度比常规CPU和GPU架构快50倍,同时能耗降低了100倍。早期研究结果表明,通过利用稀疏性高达10比1的稀疏连接(sparse connectivity)和事件驱动的活动,Hala Point运行深度神经网络的能效比高达15 TOPS/W ,同时无需对输入数据进行批处理。批处理是一种常用于GPU的优化方法,会大幅增加实时数据(如来自摄像头的视频)处理的延迟。尽管仍处于研究阶段,但未来的神经拟态大语言模型将不再需要定期在不断增长的数据集上再训练,从而节约数千兆瓦时的能源。世界各地领先的学术团体、研究机构和公司共同组成了英特尔神经拟态研究社区(INRC),成员总数超过200个。携手英特尔神经拟态研究社区,英特尔正致力于开拓类脑AI前沿技术,以将其从技术原型转化为业界领先的产品。