Meta Platforms计划Q4推出自研AI ASIC芯片MTIA T-V1
发布时间:2025-6-18 09:11
发布者:eechina
全球科技巨头Meta Platforms(原Facebook)今日宣布,其与博通(Broadcom)联合开发的下一代AI专用集成电路(ASIC)芯片MTIA T-V1已进入量产倒计时,预计最早于2025年第四季度正式推出。该芯片采用高规格36层PCB主板与混合冷却技术,规格被业界认为将超越英伟达下一代AI GPU“Rubin”,标志着Meta在AI硬件自研领域迈出关键一步。 技术突破:高密度计算与能效比双提升 据供应链消息,MTIA T-V1基于台积电先进制程打造,集成多项创新技术: 混合冷却架构:采用液冷与空冷结合的散热方案,支持高功率密度运行,满足数据中心大规模部署需求。 高带宽内存与互连:内存带宽较前代提升一倍以上,支持多芯片互连,可扩展至128GB HBM3e内存,峰值带宽达3.7TB/s(接近英伟达H100水平)。 低延迟推理优化:针对Meta内容推荐、广告排名等核心AI工作负载进行深度优化,延迟较GPU降低30%-40%。 分析师指出,MTIA T-V1的能效比(每瓦性能)较英伟达Rubin GPU提升约20%,尤其在处理中低复杂度AI模型时优势显著。Meta基础设施副总裁Santosh Janardhan表示:“MTIA T-V1是Meta定制化AI硬件战略的核心,它将与GPU形成互补,为不同工作负载提供最佳解决方案。” 量产计划:2025年底至2026年出货百万级 Meta计划在2025年底至2026年间分阶段推出多款MTIA系列芯片: 2025年Q4:MTIA T-V1量产,由Celestica、Quanta等厂商负责组装,预计出货量达30万至40万片。 2026年中期:推出MTIA T-V1.5,芯片面积翻倍,计算密度接近英伟达GB200系统,出货量目标提升至50万至80万片。 2027年:发布MTIA T-V2,采用更大规模CoWoS封装与170KW高功率机架设计,剑指万亿参数模型训练。 供应链调研显示,Meta已与台积电签订长期产能协议,但受CoWoS封装产能限制(2025年仅30万至40万片),实际出货量可能低于目标。此外,大尺寸CoWoS封装技术挑战与系统调试周期(需6-9个月)亦增加不确定性。 市场影响:ASIC阵营崛起,英伟达护城河受挑战 随着Meta、谷歌、亚马逊等云服务商加速自研ASIC芯片,AI服务器市场格局正发生深刻变化: 出货量对比:2025年,谷歌TPU出货量预计达150万至200万片,亚马逊AWS Trainium 2约140万至150万片,而英伟达AI GPU供应量为500万至600万片。ASIC阵营合计出货量已达英伟达的40%-60%。 成本优势:ASIC芯片在特定工作负载下能效比显著高于GPU,长期来看可降低云服务商的运营成本。以Meta为例,其数据中心AI算力成本有望通过MTIA系列芯片降低25%-30%。 生态挑战:英伟达凭借CUDA生态系统与NVLink互连技术仍占据主导地位,但Meta已通过PyTorch深度集成与开放硬件设计吸引开发者。 行业展望:AI芯片竞争进入“定制化”时代 Meta的MTIA项目是科技巨头“去英伟达化”浪潮的缩影。谷歌、亚马逊、微软等企业均已推出自研AI芯片,并通过开源软件与硬件协同设计构建生态壁垒。市场研究机构TrendForce预测,到2026年,ASIC在AI服务器市场的价值占比将从目前的8%-11%提升至20%-25%,出货量有望超越英伟达GPU。 |
网友评论