发布时间:2025-08-1 阅读量:904 来源: 我爱方案网 作者: wenwei
【导读】据外媒《CRN》7月31日报道,AMD客户端业务事业部总经理Rahul Tikoo透露,公司正评估研发独立NPU(神经网络处理单元)加速卡的可能性。此举旨在响应"人人可用AI计算"的市场愿景,通过专用硬件降低AI应用门槛,为桌面PC和专业工作站用户提供更高效的解决方案。

现有AI加速方案面临性能与能效瓶颈
当前AI PC主要依赖SoC集成NPU,而高性能计算场景则普遍采用GPU加速。然而GPU在持续高负载AI任务中面临显著挑战:一方面高功耗导致散热压力增大,另一方面需与图形渲染共享运算资源,限制了AI模型推理效率。尤其在运行大语言模型(LLM)和生成式AI应用时,资源争用问题更为突出。
独立NPU的差异化技术价值
独立NPU加速卡的核心优势在于专用架构设计。通过针对AI运算优化指令集和内存子系统,可在低功耗状态下提供稳定高效的推理性能。这种设计不仅释放CPU/GPU资源,更能为专业软件开发者提供可预测的计算能力,特别适用于实时AI应用部署、多任务并发处理等场景。
赛灵思技术积淀成关键突破口
行业分析指出,AMD可能整合收购赛灵思(Xilinx)获得的自适应计算技术。赛灵思在FPGA和AI加速领域积累的硬件加速IP、高带宽内存架构及低延迟互连方案,可为独立NPU提供底层技术支持。这种技术协同有望在模型量化、稀疏计算等关键环节实现性能突破。
OEM厂商布局催化硬件生态变革
市场动态显示,联想、戴尔、惠普等头部PC厂商已着手规划搭载独立NPU的终端设备。随着Windows 11深度整合AI框架及Copilot+生态扩展,市场对专用AI加速硬件的需求持续升温。第三方测试数据表明,专用NPU在能效比上较GPU方案平均提升3-5倍,这为硬件创新提供了商业落地基础。
AMD的协同计算生态战略
AMD强调该产品仍处于前期评估阶段,最终决策将取决于市场需求与技术成熟度。公司规划通过"CPU+GPU+NPU"的三元计算架构,构建分层式AI运算体系:CPU处理通用计算,GPU专注图形与训练任务,NPU则承担轻量化推理负载。这种硬件协同策略有望在2025-2026年重塑AI PC产业标准。
近日,日产汽车和总部位于英国的自动驾驶初创公司Wayve签署协议,合作开发基于人工智能的驾驶辅助系统。
京东开启招聘存算一体芯片设计工程师计划,薪酬高达“40K-100K*20薪”
日本芯片制造商铠侠(Kioxia)计划于2026年在其岩手县晶圆厂开始生产新一代NAND闪存芯片。
一系列诉讼指控芯片制造商英特尔、AMD及德州仪器公司,未能有效阻止其技术被用于俄罗斯制造的武器。
台积电日本子公司JASM熊本第二晶圆厂在 10 月下旬启动后近期处于暂停状态,重型设备已撤出工地