发布时间:2025-04-2 阅读量:585 来源: 综合自网络 发布人: wenwei
【导读】全球存储巨头美光科技近日宣布实现技术突破,成为业界首个同步量产HBM3E高带宽内存与SOCAMM压缩内存模组的厂商。这两款专为AI数据中心打造的存储解决方案,正通过英伟达Blackwell超级芯片平台重塑算力边界。
双剑合璧破解AI算力瓶颈
美光此次推出的HBM3E 12H 36GB内存模组展现出惊人性能,其超过9.2Gb/s的引脚速度可提供1.2TB/s的恐怖带宽,相当于每秒传输300部4K电影的数据量。配合采用模块化设计的SOCAMM内存方案,相比传统RDIMM内存功耗降低40%,体积缩小达30%,在英伟达GB300超级芯片平台上形成「带宽+能效」双重优势组合。
全平台适配英伟达AI生态
这两款创新产品已深度整合至英伟达AI计算生态:SOCAMM专为GB300 Grace Blackwell超级芯片优化,而HBM3E系列则覆盖从HGX B200到B300全系平台。这种全栈式解决方案使美光成为英伟达Blackwell架构的核心存储供应商,可支撑NVL72等多GPU互联系统突破万亿参数大模型训练门槛。
存储技术驱动AI范式转移
美光科技CFO Mark Murphy透露,数据中心业务营收同比激增200%印证了AI算力需求的爆发。随着HBM3E产能爬坡,公司预计第三季度营收将突破85亿美元大关。行业分析师指出,美光通过3D堆叠技术将HBM存储密度提升50%,其「存算一体」解决方案正在改写AI服务器的设计规则。
在这场由生成式AI引发的算力军备竞赛中,美光凭借HBM3E与SOCAMM构建起存储技术的双重护城河。当英伟达GB200 NVL72系统搭载288颗HBM3E芯片时,其聚合带宽将达到惊人的345TB/s——这相当于同时处理全人类每天产生的数据总量,标志着AI基础设施正式进入EB级存储时代。
推荐阅读:
AMD斥资49亿美元收购ZT Systems 加速AI基础设施战略布局
东芝全球首发车规级CXPI收发芯片TB9032FNG,破解新能源车线束冗余难题
2025-2026定制化HBM技术爆发:两大路线引领AI算力革命,台积电联盟重塑供应链
本文将深入解析CPU/GPU/NPU/FPGA四大核心处理器的核心差异与应用区别
边缘计算盒子是集成了计算、存储、网络连接及特定边缘功能的硬件设备
本文将详细介绍传统PLC与ARM控制器的架构与应用区别
高通第五代晓龙8至尊版发布
2025年第四季度旧制度DRAM价格涨幅依旧客观,但DDR5的涨势已经变得更为强劲