AI芯片对比:GPU/FPGA/ASIC/类脑芯片

发布时间:2018-01-22 阅读量:1182 来源: 我爱方案网 作者:

2017年,“人工智能”俨然已经成为所有媒体的头条热点,在媒体和资本的推动下,AI以迅雷不及掩耳之势向我们汹涌奔来。从政策层面,2017年关于AI发生了三件大事,一是发布了人工智能发展规划;二是人工智能首次写入十九大报告;三是很多城市,如上海、重庆等都在进行人工智能规划。

从数据来看,2013年只有100多家组织机构研究深度学习和人工智能,而到了2015年,这个数字已经飙升到3409家,两年时间增长30多倍。就连以电动汽车起家的特斯拉也宣布开始设计AI芯片,马斯克请来了AMD公司Zen架构的开发者Jim Keller,担任自动驾驶硬件副总裁。

在AI热闹非凡的大背景下我们也需要认真思考:人工智能是否需要专门的芯片?现有的技术架构具有怎样的优势?近期,北京建广资产管理有限公司主办了一场以“构造’芯’生态”为主题的沙龙,赛迪智库半导体研究所副所长林雨从AI芯片定义、分类、生态环境、投资等方面做了分析。

人工智能如果按照架构进行划分,有三个重要元素:数据、算法和算例,其中算例就是芯片,算例是基础,算法是核心,数据是保障。先看人工智能的定义,从广义上讲只要能够运行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有针对人工智能算法做了特殊加速设计的芯片才可以称作为人工智能芯片,市场上真正做到了对芯片里面的架构做了特殊加速设计的公司少之又少。”

三个维度对人工智能进行分类

分别从功能、应用场景和技术架构对人工智能进行了分类:

从功能上来看,人工智能包括推理和训练两个环节。在训练层面,通过大数据训练出一个复杂的神经网络模型。目前训练环节主要使用英伟达的GPU集群完成,谷歌的TPU2.0也支持训练环节和深度网络加速。推理环节是指利用训练好的模型,使用新数据推理出各种结论。总得来看,训练环节对芯片的性能要求比较高,推理环节对简单指定的重复计算和低延迟的要求很高。

从应用场景来看,人工智能芯片应用于云端和设备端,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。在设备端,智能终端的数量庞大,而且需求差异较大,比如VR设备对于实时性要求很高,推理环节无法在云端完成,要求设备有独立的推理计算能力,因此专用芯片的需求还是很大。

从技术架构来看有四类:一是通用性芯片,如GPU;二是以FPGA为代表的半定制化芯片,如深鉴科技的DPU;第三,ASIC全定制化芯片,如谷歌的TPU;第四,类脑芯片。

GPU/FPGA/ASIC/类脑芯片,各有怎样的优势?

为了进行大数据处理,当前的方案一般采用高性能的处理器辅助MCU进行计算,但是随着摩尔定律时间周期拉长,处理器上可集成的器件数量会达到极限,而数据量还在不断增加,因此我们需要通过架构的变化来满足数据量的增长,这就是人工智能芯片推出的背景。

目前来看,人工智能芯片有四类架构:GPU、FPGA、ASIC和类脑芯片。

GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。

FPGA:和GPU相反,FPGA适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将FPGA和GPU对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合CPU和GPU各自的优势,有一种解决方案就是异构。

ASIC芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的TPU、寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。

很多人认为ASIC是人工智能芯片的一个主要发展方向,其实在ASIC芯片里还有一个特殊的群体—类脑计算,林雨认为,“这才是真正的人工智能芯片未来发展的方向。类脑计算是真正模拟人脑进行设计,人脑的特点就是神经元进行传输数据。当我们用硬件去模拟人脑时,在硬件环节里还有许多多余的元素,而类脑芯片就拟合人脑的作用。要做类脑芯片非常难,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。”

四种架构将走向哪里?

将以上四种架构对比,GPU未来的主攻方向是高级复杂算法和通用性人工智能平台,其发展路线分两条走:一是主攻高端算法的实现,对于指令的逻辑性控制要更复杂一些,在面向需求通用的AI计算方面具有优势;二是主攻通用性人工智能平台,GPU的通用性强,所以应用于大型人工智能平台可高效完成不同的需求。FPGA更适用于各种细分的行业,人工智能会应用到各个细分领域。

ASIC芯片是全定制芯片,长远看适用于人工智能。现在很多做AI算法的企业也是从这个点切入。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,ASIC基于人工智能算法进行定制,其发展前景看好。类脑芯片是人工智能最终的发展模式,但是离产业化还很遥远。

投资投哪里?


第一,关注具有纵向产业链整合能力的企业。因为未来在人工智能领域侧重生态整合。单独做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企业更值得关注。

第二,专攻终端应用市场,人工智能芯片的应用场景里有两个:一个是在云端,一个是在终端。云端格局应该变化不大,但是在终端方面变数未定,这是对国内企业来说是一个不错的切入点,边缘计算值得关注。

第三,关注专用芯片,ASIC从功耗、技术都具有优势,是未来AI芯片发展的主要方向,尤其要关注是否有加速环节。

有了资本和媒体的热捧,AI已经在全球范围内遍地开花,顺势而为的创业者也不在少数。目前,国内已经有20多家初创企业在做人工智能芯片,但是评估一家企业的技术能力是第二位的,第一位的考察点要看他们是否能真正能将技术变现,是否能将技术转化为商业产品。因此,看一家AI芯片设计企业,商业能力要大于技术能力,这才是融资点。



方案超市都是成熟的量产方案和模块,欢迎合作:

直流屏电源远程监控与运维服务解决方案(物联网)
应用于物联网领域的高精度、免校准“电”计量芯片
蓝牙4.0 BLE 2640物联网开发套件


快包任务,欢迎技术服务商承接:

百万级物联网软件平台 ¥30000 竞标中
物联网智能控制APP开发 ¥10000 竞标中


>>购买VIP会员套餐


相关资讯
AI引爆芯片扩产潮:2028年全球12英寸晶圆月产能将破1100万片

国际半导体产业协会(SEMI)最新报告指出,生成式AI需求的爆发正推动全球芯片制造产能加速扩张。预计至2028年,全球12英寸晶圆月产能将达1,110万片,2024-2028年复合增长率达7%。其中,7nm及以下先进制程产能增速尤为显著,将从2024年的每月85万片增至2028年的140万片,年复合增长率14%(行业平均的2倍),占全球总产能比例提升至12.6%。

高通双轨代工战略落地,三星2nm制程首获旗舰芯片订单

据供应链消息确认,高通新一代旗舰芯片骁龙8 Elite Gen 2(代号SM8850)将首次采用双轨代工策略:台积电负责基于N3P(3nm增强版)工艺的通用版本,供应主流安卓厂商;而三星则承接其2nm工艺(SF2)专属版本,专供2026年三星Galaxy S26系列旗舰机。此举标志着高通打破台积电独家代工依赖,三星先进制程首次打入头部客户供应链。

美光2025Q3财报:HBM驱动创纪录营收,技术领先加速市占扩张

在AI算力需求爆发性增长的浪潮下,存储巨头美光科技交出超预期答卷。其2025财年第三季度营收达93亿美元,创历史新高,其中高带宽内存(HBM)业务以环比50%的增速成为核心引擎。凭借全球首款12层堆叠HBM3E的量产突破,美光不仅获得AMD、英伟达等头部客户订单,更计划在2025年末将HBM市占率提升至24%,直逼行业双寡头。随着下一代HBM4基于1β制程的性能优势验证完成,一场由技术迭代驱动的存储市场格局重构已然开启。

对标TI TAS6424!HFDA90D以DAM诊断功能破局车载音频安全设计

随着汽车智能化升级,高保真低延迟高集成度的音频系统成为智能座舱的核心需求。意法半导体(ST)推出的HFDA80D和HFDA90D车规级D类音频功放,以2MHz高频开关技术数字输入接口及先进诊断功能,为车载音频设计带来突破性解决方案。

村田量产全球首款0805尺寸10μF/50V车规MLCC,突破车载电路小型化瓶颈

随着汽车智能化电动化进程加速,自动驾驶(AD)和高级驾驶辅助系统(ADAS)等关键技术模块已成为现代车辆标配。这些系统依赖于大量高性能电子控制单元(ECU)和传感器,导致车内电子元件数量激增。作为电路稳压滤波的核心元件,多层片式陶瓷电容器(MLCC)的需求随之水涨船高,尤其是在集成电路(IC)周边,对大容量电容的需求尤为迫切。然而,有限的电路板空间与日益增长的元件数量及性能要求形成了尖锐矛盾,元件的高性能化与小型化成为行业亟待攻克的关键难题。