突破2.0TB/s带宽!美光HBM4性能提升60%领跑AI内存竞赛

发布时间:2025-06-12 阅读量:205 来源: 我爱方案网 作者:

【导读】美光科技于6月10日宣布,已向多个核心客户交付基于36GB 12层堆叠架构的HBM4内存样品。此举标志着其在AI计算内存领域取得重大突破,进一步强化了其在性能与能效层面的技术话语权。


18.jpg


此次交付的HBM4内存整合了美光成熟的1β(1-beta)DRAM工艺、12层先进封装技术及高性能内存内置自检(MBIST)功能。该设计旨在为下一代AI平台开发者提供无缝集成的解决方案,满足生成式AI爆发性增长对高效推理能力的迫切需求。


技术参数显示,HBM4采用2048位超宽接口设计,单堆栈带宽突破2.0TB/s,较前代产品性能提升超60%。扩展接口显著优化了数据吞吐效率,可大幅加速大型语言模型(LLM)及思维链推理系统的响应速度,使AI加速器具备更迅捷的实时决策能力。


在能效方面,HBM4实现跨越式进步。相比美光当前领跑行业的HBM3E解决方案,其功耗效率提升超20%。这一突破意味着数据中心能以更低能耗支持更高强度AI负载,为可持续计算提供关键基础设施支撑。


随着生成式AI在医疗诊断、金融建模、智能交通等领域的深度渗透,HBM4的高带宽与低延迟特性将成为推动行业创新的核心驱动力。该技术有望缩短科研发现周期,优化复杂场景决策流程,创造显著社会经济价值。


美光云内存业务高级副总裁Raj Narasimhan强调:"HBM4的突破性性能验证了我们的技术路线图执行力。在HBM3E奠定市场标杆的基础上,我们将持续通过HBM4及全栈AI存储方案推动产业变革。"据悉,美光已规划2026年实现HBM4量产扩容,精准对接客户下一代AI平台商用进程。


相关资讯
AMD vs NVIDIA:MI355X与B200的AI加速器性能终极对决

2025年6月,AMD正式发布基于CDNA4架构的Instinct MI350系列AI加速器,包含MI350X(1000W风冷)和MI355X(1400W液冷)两款型号。该系列采用台积电N3P 3nm制程与CoWoS-S先进封装,集成1850亿晶体管,配置288GB HBM3e显存与8TB/s带宽,较上代实现4倍训练性能与35倍推理性能提升。其突破性支持FP4/FP6低精度格式,为生成式AI与大语言模型提供革命性算力支持。

美国半导体本土化进程遭遇“邻避挑战”,多座晶圆厂建设受阻

尽管美国《芯片与科学法案》为本土半导体制造注入强劲动力,部分重大投资项目却因环境审查与社区抗议陷入停滞。研究机构SemiAnalysis最新报告指出,包括安靠(Amkor)、美光(Micron)及SK海力士(SK Hynix)在内的多家企业工厂建设因“邻避情结”(NIMBY)和漫长许可流程面临延期,凸显美国芯片制造本土化进程中的现实阻力。

三星加速推进2nm GAA工艺量产,Exynos 2600迈入关键生产阶段

韩国科技巨头三星电子在尖端半导体工艺上的突破迎来重要进展。采用三星自主研发的第二代环绕栅极晶体管(2nm GAA)制造工艺的Exynos 2600原型芯片已顺利进入量产阶段。这一举措标志着三星在将下一代先进制程技术推向市场应用方面迈出了坚实一步。

三星HBM3E三次认证折戟,AI内存供应面临变局

三星电子在冲击AI内存高地的征途上遭遇阻力。2025年6月,其12层HBM3E芯片未通过英伟达的第三次技术认证。这家科技巨头被迫调整战略,计划于9月发起第四次认证冲刺。为把握AI内存需求机遇,三星此前已提前提升HBM3E芯片产能,但此次认证延期显著推迟了其供应时间表。

2025年Q1全球智能手机市场分析:总量小幅回调,三星领跑,中国市场政策效应显现

据权威市场调研机构TrendForce集邦咨询发布的最新数据统计,2025年第一季度全球智能手机生产总量约为2.89亿部,较2024年第一季度同比下降约3%,显示出整体市场需求依然偏谨慎。