英伟达这个芯片,依然难逢敌手

发布时间:2022-07-6 阅读量:725 来源: 我爱方案网整理 发布人: Aurora

1657099545694915.jpg

 

随着机器学习越来越多地进入社会的每一个角落,相应的训练任务也成为了云端数据中心最关键的运算负载之一,同时这也推动了半导体相关芯片市场的蓬勃发展。在云端训练芯片领域,虽然一直有不同的挑战者,但是Nvidia一直保持着龙头的位置。从2012年深度学习复兴,依靠Nvidia GPUCUDA生态成功克服训练效率难题并成功掀起这一代人工智能潮流之后,NvidiaGPU一直是训练市场的首选芯片。    

 

上周MLperf公布的最新训练榜单也再次印证了Nvidia的稳固地位。MLPerf是由机器学习业界的行业组织ML Commons牵头做的标准榜单,其中训练榜单的具体测评方法是ML Commons提供一些业界最流行的机器学习模型的训练任务,而不同的机构会自行去使用不同的处理器和AI加速芯片配合相应的软件框架去搭建系统执行这些训练任务,并且将结果提交到MLPerf来汇总和公布。每过一段时间,该榜单都会更新一次以包括新的芯片以及新的训练任务。在最新的629日公布的MLPerf训练2.0版本的结果中,Nvidia的领先地位可以从榜单中的两个地方看出:    

 

首先是使用Nvidia GPU提交结果的数量。在这次MLPerf的最新训练榜单中,绝大多数(90%以上)机构提交的训练结果都是基于NvidiaGPU做训练加速,而如果再仔细看结果,会发现NvidiaGPU是和不同的机器学习训练框架兼容性最好的。例如,GoogleIntelGraphCore都上传了使用非Nvidia GPU的结果(Google使用TPU v4Intel使用Habana Gaudi芯片,而Graphcore使用Bow IPU),但是这些竞争芯片对于深度学习框架支持的广度都不及Nvidia——基本上所有深度学习框架都会支持NvidiaGPU,但是支持其他芯片的深度学习框架种类则有限。这也从一个角度说明了Nvidia在生态上的领先。    

 

其次是性能上的比较。值得注意的是,本次绝大多数机构提交的基于Nvidia GPU的结果都是基于Nvidia A100 GPU,换句话说这已经是两年前的芯片的结果了(Nvidia官方宣布基于下一代GPU H100的结果将会在下一次MLPerf榜单更新时提交),但是其结果仍然很有竞争力,相较于其他更新的芯片的结果并不遑多让。例如,相比最新的Google TPUv4,在大规模语言模型预训练(BERT)任务上,同样使用4096张加速卡TPU v4需要的时间是0.179分钟,而Nvidia A100需要的时间是0.206分钟,相差并不大。相比Intel Habana Gaudi2,同样使用8张加速卡Nvidia A100 BERT训练结果是17.624分钟,而Habana Gaudi2需要的时间是17.209分钟。相比Graphcore Bow IPU,在BERT任务上128A100的训练时间是2.655分钟,而Bow IPU需要4.415分钟。在一些物体识别任务中,Habana Gaudi2的性能确实强于A100,但是这样的优势在Nvidia H100发布后是否还能保持还有很大的不确定性。

   

Nvidia的软硬件生态是关键护城河    

 

如前所述,Nvidia目前仍然在机器学习训练市场可以说是独孤求败,并没有受到强大的挑战。我们认为,这得益于Nvidia在芯片和软件方面的全面能力,而这从另一个角度又与人工智能芯片发展的规律相得益彰。    

 

首先,人工智能的发展规律中,人工智能模型始终和相关的加速硬件一起发展,也正因为这个原因,有能力掌握软硬件协同设计的公司将会有巨大的优势。即使单从芯片设计的角度来看,人工智能加速芯片中的架构设计也是极其重要,从性能提升角度比芯片的半导体工艺要更重要。    

 

纵观MLPerf公布的榜单,从第一个榜单公布到现在的时间周期内,摩尔定律主导的芯片性能(时钟频率)提升约为四倍,但是芯片对机器学习任务的处理能力却增强了四十倍,由此可见芯片架构以及软硬件协同设计恰恰是人工智能加速芯片的核心要素,而半导体工艺提升只是一个辅助因素。在这个领域,Nvidia确实具有巨大的优势,因为Nvidia在拥有强大的芯片架构设计团队来为人工智能模型设计芯片架构的同时,也拥有很强的软件团队来优化在芯片上的人工智能模型运行效率,两者相结合确实威力无穷。    

 

纵观Nvidia针对机器学习的GPU设计,其软硬件协同设计的思路可以说是一以贯之;在深度学习还未成为主流的时候,Nvidia就相当具有前瞻性地大力投入CUDA通用计算(包括软件架构以及相应的芯片架构支持)GPU在曾经CPU一统天下高性能计算领域的打出一片天,而在深度学习成为主流之后,Nvidia的做法并非一味暴力增强算力,而是通过有针对性地优化来以最佳的效率提升性能,其中的例子包括支持混合精度训练和推理,对于INT8的大力支持,在GPU中加入Tensor Core来提升卷积计算能力,以及最新的在H100 GPU中加入Transformer Engine来提升相关模型的性能。这些投入都包括了软件和芯片架构上的协同设计,而同时也收到了很好的回报,使得Nvidia能使用最小的代价(芯片面积,功耗)来保持性能的领先。    

 

时至今日,Nvidia的GPU架构已经能在通用性(即对于各种模型算子的支持)和效率(即对于重要模型算子的运行效率)上获得了很好的平衡,因此即使在“GPU架构并不是最适合机器学习模型加速”的观点盛行多年后,NvidiaGPU仍然是机器学习训练市场的最优选择——因为其他的加速芯片对于某些算子做专用优化之后往往通用性无法顾及,而通用型的加速芯片则很难与拥有巨大系统团队支持的Nvidia设计的GPU性能相抗衡。    

 

在性能领先之外,Nvidia在软件生态上也拥有很高的护城河。如前所述,Nvidia的芯片架构能够在通用性和效率之间实现一个很好的平衡,而在这个基础上,一套易用且能充分调动芯片架构潜力的软件生态则会让Nvidia在机器学习模型社区拥有巨大的影响力——这使得模型设计者在设计模型时将会自发针对NvidiaGPU做模型优化,从而更进一步提高Nvidia的竞争力。Nvidia拥有CUDA这样成熟而性能良好的底层软件架构,因此目前几乎所有的深度学习训练和推理框架都把对于Nvidia GPU的支持和优化作为必备的目标,相比较而言对于其他竞争芯片来说,软件生态方面的支持就少得多了(例如对于Google TPU的主要生态支持来自Google自己的TensorFlow,然而TensorFlow目前在人工智能社区使用人数正在慢慢落后于Pytorch,这也成为TPU在生态上的一个瓶颈),这也成为了Nvidia GPU的一大护城河。


相关资讯
全闪存与软件定义双轮驱动——中国存储产业年度趋势报告

根据IDC最新发布的企业级存储市场追踪数据,2024年中国存储产业迎来结构性增长拐点。全年市场规模达69.2亿美元,在全球市场占比提升至22%,展现出强劲复苏态势。以浪潮信息为代表的国内厂商持续突破,在销售额(10.9%)和出货量(11.2%)两大核心指标上均跻身市场前两强,标志着本土存储生态的成熟度显著提升。

索尼启动半导体业务战略重组 图像传感器龙头或迎资本化新篇章

全球消费电子巨头索尼集团近期被曝正酝酿重大战略调整。据彭博社援引多位知情人士透露,该集团拟对旗下核心半导体资产——索尼半导体解决方案公司(SSS)实施部分分拆,计划于2023年内推动该子公司在东京证券交易所独立IPO。该决策标志着索尼在半导体产业布局进入新阶段,同时也预示着全球图像传感器市场格局或将发生重要变化。

革新智能驾驶通信:移远车载蜂窝天线补偿器如何破解行业痛点?

在2025上海国际车展上,移远通信推出的全新车载蜂窝天线补偿器引发行业关注。该产品通过双向动态补偿、微秒级频段切换及混频电路集成等核心技术,解决了车载通信中长期存在的射频链路损耗难题,为智能网联汽车提供稳定高效的通信支持。本文将从技术优势、竞争分析、应用场景及市场前景等多维度解读这一创新方案。

全球DRAM市场变局:三星技术迭代与SK海力士堆叠方案的对决

在全球DRAM市场格局加速重构的背景下,三星电子近期宣布将跳过第八代1e nm工艺节点,转而集中资源开发基于垂直通道晶体管(VCT)架构的下一代DRAM技术。据内部路线图显示,三星计划在2027年前实现VCT DRAM量产,较原定计划提前一个世代。该技术通过三维堆叠晶体管结构,将存储单元面积缩减30%,并利用双晶圆混合键合工艺解决信号干扰问题,被视为突破传统平面工艺物理极限的核心方案。

京东方2025年一季度净利润飙升64% 显示业务领跑全球推动业绩新高

2025年4月28日,京东方科技集团股份有限公司(以下简称“京东方”)发布2025年第一季度财报,以多项核心经营指标的历史性突破,彰显其作为全球半导体显示龙头企业的强劲发展动能。报告期内,公司实现营业收入505.99亿元,同比增长10.27%,创下一季度收入新高;归属于上市公司股东的净利润达16.14亿元,同比大幅增长64.06%,扣非净利润13.52亿元,同比飙升126.56%。这一业绩表现得益于其“屏之物联”战略的深化落地,以及“1+4+N+生态链”业务架构下各板块的协同创新。