Cerebras Systems发布全球最大AI芯片WSE
发布时间:2025-5-30 15:24
发布者:eechina
近日,美国AI芯片初创公司Cerebras Systems正式推出全球尺寸最大的AI芯片——Wafer Scale Engine(WSE),并在AI推理性能上实现历史性突破。这款边长22厘米、面积达462平方厘米的芯片,集成了40亿至4万亿个晶体管(不同代次版本),其推理速度比同等规模的英伟达GPU集群快约2.5倍,重新定义了AI计算的性能边界。 “晶圆级”架构:单芯片媲美超级计算机 WSE的核心创新在于其“晶圆级”设计——将整块300毫米晶圆转化为单一处理器,而非传统方式中将晶圆切割为多个小芯片。这一设计使WSE拥有以下突破性参数: 晶体管数量:最新WSE-3版本集成超4万亿个晶体管,是英伟达H100的52倍; 核心规模:搭载90万个AI优化计算核心(WSE-3),是H100的52倍; 内存带宽:片上SRAM达44GB,带宽9PB/s,是H100的10,000倍; 功耗效率:单芯片功耗15千瓦,但能效比优于英伟达DGX H100集群。 Cerebras首席执行官Andrew Feldman表示:“WSE不是对现有架构的渐进改进,而是芯片技术的一次范式革命。通过将计算、内存和通信全部集成在单晶圆上,我们消除了传统集群中90%的数据传输延迟。” 推理性能碾压:每秒生成2500个Token 在Web Summit 2025大会上,Cerebras展示了WSE在Meta Llama 4模型上的推理性能: 基准测试:WSE处理速度达每秒2500个Token,而英伟达集群仅能实现每秒1000个Token; 模型支持:可训练24万亿参数的AI模型,是英伟达方案的600倍; 成本优势:训练700亿参数的Llama模型,WSE集群仅需1天,而英伟达集群需30天。 第三方机构Artificial Analysis的测试显示,WSE在Meta最先进模型上的推理性能“超越所有现有方案”,成为唯一能在特定场景下超越英伟达Blackwell架构的解决方案。 技术突破:稀疏计算与片上内存革命 WSE的性能飞跃源于两大核心技术: · 稀疏线性代数核心(SLAC): 针对深度学习中的稀疏计算(数据中50-98%为零)优化,自动跳过零值计算,将硬件利用率提升至GPU的3-4倍; 动态稀疏性支持使推理速度比英伟达GPU快2.5倍。 · 片上超高速内存: WSE-3集成44GB SRAM,带宽9PB/s,彻底消除对外部HBM的依赖; 内存与计算核心紧密耦合,使数据访问延迟降低至GPU的1/1000。 Cerebras首席营销官Julie Shin指出:“传统GPU需通过PCIe或NVLink连接多块芯片,而WSE的所有通信均在片内完成,这种‘零延迟’架构是性能飞跃的关键。” 产业冲击:重新定义AI计算架构 WSE的推出标志着AI芯片竞争进入“晶圆级”时代: 算力密度:单芯片可提供125 petaFLOPS性能,相当于10个英伟达DGX H100机架; 能效比:在相同功耗下,WSE的训练速度是英伟达方案的8倍; 成本优势:Cerebras宣称其解决方案可将AI模型训练成本降低90%。 目前,WSE已应用于美国能源部、阿斯利康等机构的超级计算机项目中。Feldman透露,下一代WSE-4将采用台积电3nm工艺,晶体管数量突破10万亿,目标直指GPT-6级别模型的实时训练。 未来展望:AI计算的“光刻机时刻” 行业分析师指出,WSE的商业化落地将加速AI产业分化: 云服务商:亚马逊、微软等巨头或采购WSE集群以降低运营成本; 初创企业:生物医药、自动驾驶等领域将涌现更多“单芯片即数据中心”的创新模式; 芯片生态:英伟达、AMD或被迫加速2.5D/3D封装技术研发,以应对晶圆级芯片的挑战。 “这就像从机械硬盘到SSD的跨越。”Cerebras首席硬件架构师Sean Lie表示,“WSE证明了单芯片即可承载超级计算机的算力,而我们的目标是在2030年前将AI推理成本降低至目前的千分之一。” 关于Cerebras Systems Cerebras成立于2016年,总部位于美国加州,专注于晶圆级AI芯片研发。其团队核心成员来自AMD、Intel、Sun等企业,累计融资超10亿美元。2025年,WSE系列芯片已占据全球AI训练市场15%的份额,成为英伟达最强劲的挑战者。 |
网友评论