软银携手英特尔开发AI专用内存芯片 功耗减半助力日本AI基建升级

2025年06月03日 10:06    发布者:eechina
日本科技巨头软银集团与美国芯片制造商英特尔近日宣布达成战略合作,共同研发全球首款专为人工智能设计的低功耗内存芯片。该项目由双方新成立的合资公司Saimemory主导,通过创新性的三维堆叠架构设计,预期可将芯片功耗降低约50%,为日本乃至全球构建节能高效的AI基础设施提供关键技术支撑。

技术突破:重构内存架构,功耗直降50%

此次合作的核心是开发一种新型堆叠式动态随机存取存储器(DRAM),采用与现有高带宽内存(HBM)完全不同的布线方式。传统HBM芯片通过硅通孔(TSV)技术实现多层堆叠,但受限于布线密度和散热效率,功耗问题始终是瓶颈。而新方案通过优化三维互连结构,结合英特尔的先进封装工艺与东京大学等机构的专利技术,显著提升了信号传输效率与能效比。

据项目负责人透露,该芯片在实验室环境下已实现单位算力能耗降低48%的测试结果,并计划在两年内完成原型验证。若商业化成功,单颗芯片的功耗将从现有产品的150瓦降至75瓦以下,直接推动数据中心PUE(电能使用效率)值逼近1.1的极限水平。

分工模式:产学研协同,聚焦芯片设计与制造分离

为加速技术落地,Saimemory公司采用“设计-专利-制造”分离的轻资产模式:

设计端:整合英特尔的半导体IP库与东京大学在低功耗材料领域的专利,聚焦芯片架构创新;
制造端:将晶圆代工委托给台积电等第三方厂商,规避重资产投入风险;
资金端:软银作为主投方出资30亿日元(约合1.5亿元人民币),日本理化学研究所与神港精机正评估技术入股方案,项目整体预算达100亿日元(约合5亿元人民币)。

这一模式既发挥了软银在AI产业链的资源整合能力,又借助英特尔的半导体工艺积累,同时引入学术界的前沿研究,形成“产学研”闭环。

战略意义:抢占AI算力赛道,降低数据中心运营成本

随着AI大模型参数规模突破万亿级,数据中心的能耗问题已成为行业痛点。据日本经济产业省统计,2024年日本AI数据中心耗电量同比增长67%,电费支出占运营成本的35%以上。而软银与英特尔联合研发的芯片,若应用于10万台服务器的集群,每年可节省电费超2亿美元,并减少碳排放12万吨。

软银集团首席技术官表示:“这款芯片将优先部署于我们自研的AI训练中心,未来还将向金融、医疗等对能耗敏感的行业开放授权。”目前,软银已与三菱UFJ银行、武田制药达成初步合作意向,共同探索低功耗AI芯片在风险建模与药物研发中的应用场景。

产业影响:重塑全球AI芯片竞争格局

行业分析认为,此次合作标志着日本在AI硬件领域的技术反攻。尽管美国企业在GPU市场占据主导地位,但内存芯片作为AI算力的“咽喉要道”,其技术迭代将直接影响数据中心的整体效率。若该芯片在2027年前实现量产,可能迫使英伟达、AMD等厂商调整产品路线图,加速低功耗内存技术的军备竞赛。

此外,日本政府已将该项目纳入“半导体数字产业战略”,计划提供研发补贴与税收优惠。东京大学教授指出:“这不仅是商业合作,更是日本重建半导体产业话语权的关键一步。”

未来展望:两年内原型落地,2020年代末商业化

根据项目规划,研发团队将于2027年第一季度完成首款5纳米工艺芯片的流片,并在软银的AI数据中心进行实测。若性能达标,量产版本将于2028年推向市场,初期产能预计为每月10万片,优先供应日本本土企业。

“我们的目标不仅是降低功耗,更要重新定义AI计算的能效边界。”英特尔高级副总裁在签约仪式上强调。随着全球数据中心对绿色算力的需求激增,这场由软银与英特尔发起的“内存革命”,或将改写AI产业的底层逻辑。