发布时间:2026-03-2 阅读量:10138 来源: 电子工程专辑 发布人: bebop
导读:在全球AI竞赛白热化的背景下,科技巨头Meta Platforms(原Facebook)近期在自研AI芯片领域遭遇重大挫折。其最新一代训练芯片Olympus项目被紧急叫停,标志着公司挑战英伟达主导地位的雄心受阻。
我爱方案网3月2日消息,据多位知情人士透露,Meta Platforms(原Facebook)在内部芯片设计工作上遭遇重大挫折,上周已取消正在开发、用于训练AI模型的最先进芯片Olympus,转而专注于结构更简单的版本。这一决定标志着这家科技巨头在挑战英伟达AI芯片霸主地位的道路上遭遇严峻困难。

作为全球社交与元宇宙领域的领军企业,Meta近年来全力押注人工智能,试图在生成式AI浪潮中占据一席之地。为降低对英伟达等外部芯片厂商的高度依赖、控制成本并提升定制化能力,Meta早在数年前便启动了MTIA项目,旨在打造一套完全自主的AI训练与推理加速芯片体系。
该战略的核心目标有三:一是摆脱英伟达GPU的“算力垄断”;二是通过硬件-软件协同优化提升模型训练效率;三是构建长期可持续的AI基础设施护城河。然而,现实远比蓝图复杂。
Iris芯片——Meta第二代训练芯片的一个版本,采用SIMD(单指令多数据)架构,硬件设计相对简单但软件编程难度更高,已被取消。
Olympus芯片——随后启动的更先进训练芯片项目,采用与英伟达AI芯片类似的SIMT(单指令多线程)架构,软件编程更友好但硬件设计难度极大,同样因设计困难于上周被取消。
据一位参与项目的人士透露,Meta最初计划用Olympus构建大型服务器集群,但高管最终认定,在与OpenAI、谷歌等成熟对手激烈竞争的背景下,这样做会给新模型训练带来重大风险。多位消息人士指出,Olympus的训练软件稳定性不如英伟达产品,且复杂设计可能导致难以大规模量产。Meta内部对自研芯片能否追上英伟达能力持怀疑态度,因为项目存在延期与重新设计风险。
面对自研瓶颈,Meta迅速调整策略,开启“多元算力采购”模式:
与英伟达深化合作:2026年2月初,Meta宣布与英伟达成多年期供应协议,将在数据中心部署数百万颗包括H200、B100在内的多代次GPU,确保未来数年的AI训练需求。
引入AMD作为第二供应商:2月24日,Meta确认将采购总功率达6吉瓦的AMD AI芯片,足以支撑多个超大规模数据中心运行,此举显著增强了其供应链韧性。
首次租用谷歌TPU:据《The Information》报道,Meta已与谷歌签署价值数十亿美元的协议,计划自2026年起租用后者自研的Tensor Processing Unit(TPU)用于模型训练与部署。这不仅是Meta首次使用非英伟达/AMD的主流AI加速器,也标志着云间算力协作的新范式。
值得注意的是,谷歌正计划联合一家未具名的大型投资机构,成立合资公司对外出租TPU,目标打造一个价值数十亿美元的第三方AI算力市场。Meta的加入,或将成为这一生态的关键启动客户。
在评估瑞芯微RK3506作为新一代工业HMI方案的过程中,团队经历了从Qt到LVGL的技术选型转变。面对资源受限的嵌入式平台,Qt框架暴露出内存占用过高、启动速度慢、CPU负载大等实际问题,难以满足工业场景对快速响应和稳定运行的严苛要求。而LVGL凭借其轻量级架构、极低资源占用和快速启动特性,在RK3506平台上展现出显著优势,成为资源受限场景下的最优图形解决方案。本文将深入剖析这一技术决策背后的实战经验与优化思路。
美国一家上诉法院撤销了英特尔此前胜诉的判决,重新启动了VLSI对英特尔的专利侵权诉讼。
国家安全部公开通报多起危害国家安全的泄密事件
为优先保障特斯拉车载GDDR6芯片供应,三星正式启动专项增产计划
佰维推出工业宽温级eMMC嵌入式存储产品TGE408