高通正式宣布进军数据中心市场
发布时间:2025-5-20 16:08
发布者:eechina
5月19日,在台北国际电脑展(Computex 2025)开幕主题演讲中,高通公司总裁兼首席执行官Cristiano Amon正式宣布,高通将凭借其自研Oryon CPU架构与英伟达GPU的深度整合,重返数据中心市场。这一战略标志着高通从移动端芯片供应商向全栈式算力解决方案提供商的转型,也折射出AI算力需求对硬件生态链的重构趋势。 战略核心:定制化CPU与英伟达GPU的异构协同 Amon在演讲中透露,高通正研发专为数据中心设计的定制化CPU,其核心目标是通过与英伟达GPU的无缝衔接,提供更高效的混合算力解决方案。这一策略直指当前AI训练与推理任务对“CPU+GPU”协同能力的迫切需求: 技术突破:高通基于2021年收购的Nuvia公司技术,打造了高性能、低功耗的Oryon CPU架构,该架构已应用于骁龙X系列PC处理器,未来将扩展至数据中心领域。 生态整合:高通与英伟达的合作将实现CPU与GPU的硬件级协同,例如通过NVLink-C2C等高速互连技术,优化多模态大模型训练中的数据传输效率。 场景聚焦:高通将优先布局AI推理集群,其CPU的低功耗特性可降低数据中心TCO(总拥有成本),同时英伟达GPU提供强大的训练算力,形成“推理+训练”的闭环生态。 市场背景:AI算力需求激增下的生态重构 Amon指出,随着AI大模型参数规模突破万亿级,传统CPU与GPU独立运行的架构已难以满足需求。当前,数据中心CPU市场呈现“双寡头+云厂商自研”格局: 英特尔与AMD:占据超90%市场份额,但X86架构在能效比上逐渐落后于Arm架构。 云厂商自研:亚马逊AWS的Graviton系列、微软Azure的Cobalt系列等定制化芯片,进一步挤压传统芯片厂商空间。 高通选择此时切入,正是瞄准了Arm架构在能效比上的优势,以及英伟达GPU在AI训练市场的统治地位。通过差异化策略,高通试图打破“CPU选X86,GPU选英伟达”的固有认知。 生态布局:从区域合作到全球算力网络 为加速市场渗透,高通同步推进多项生态合作: 区域化算力网络:与沙特人工智能公司Humain签署谅解备忘录,共建中东地区数据中心,并获得沙特公共投资基金支持。这一合作不仅为高通提供技术验证场景,也为其技术标准输出创造新路径。 跨行业协同:与英伟达的合作延伸至软件层面,高通CPU将深度适配英伟达的CUDA-X AI库与Omniverse平台,覆盖从自动驾驶到数字孪生的全场景。 开发者生态:高通承诺其数据中心CPU将兼容主流AI框架(如PyTorch、TensorFlow),并推出开发者套件,降低迁移成本。 技术路线:从端侧到云端的AI算力延续 Amon强调,高通在数据中心市场的布局并非孤立,而是其“端侧AI+云端AI”战略的自然延伸: 端侧积累:骁龙X系列PC处理器已实现NPU算力超45 TOPS,支持Stable Diffusion等模型本地化运行,为云端推理场景提供技术验证。 云端扩展:数据中心CPU将延续低功耗设计,例如采用台积电3nm制程,单芯片功耗控制在200W以内,较传统X86服务器芯片降低40%。 能效比优势:高通预计,其数据中心解决方案的每瓦性能(Performance per Watt)将比传统方案提升3倍,满足绿色数据中心建设需求。 市场挑战与行业影响 尽管战略清晰,高通仍需面对多重挑战: 生态壁垒:数据中心客户对芯片稳定性要求极高,高通需证明其Arm架构CPU在虚拟化、安全隔离等方面的可靠性。 竞争压力:英特尔Sapphire Rapids、AMD Genoa等X86处理器已占据市场主导,而Ampere Computing等Arm阵营厂商也在加速扩张。 客户信任:企业用户对Arm架构服务器的采购决策周期较长,高通需通过标杆案例(如Humain合作项目)建立市场信心。 不过,Amon对高通的前景保持乐观。他援引PC市场进展为例:高通仅用一年时间,便将骁龙X系列PC的全球应用适配数量从0提升至200个,用户原生应用使用时间占比达93%。“如果我们能在PC市场复制这一速度,数据中心市场同样值得期待。” |
网友评论