三大AI芯片架构谁最抢戏?中国“天机”芯片首秀《Nature》

发布时间:2019-09-29 阅读量:1016 来源: 智东西 发布人: Jane

智东西9月28日消息,近日,美国媒体VentureBeat对近年来行业在AI芯片竞争中研发的新芯片架构进行解读,其中包括神经拟态芯片、光学计算芯片和Cerebras WSE芯片。

 

随着社会越来越多领域的问题都试图采用AI技术来解决,因此,一场围绕AI技术的军备竞赛也就此爆发,而其中,就有以更高速度、更低运行功耗,以及支持深度学习等特征的专用硬件——AI芯片。

 

毫无疑问,AI芯片的芯片体系结构较以往来说,均有着较大的技术突破,它们执行的计算方式也与从前有着许多差异。这次,VentureBeat通过对三种典型AI芯片功能的拆解,来分析它们将在未来几年内催生的各种AI应用程序。

 

一、神经拟态芯片:中国“天机(Tianjic)”芯片

 

神经拟态芯片主要用于进行神经拟态计算(Neuromorphic Computing),简单来说,它可通过数字电路,来模拟人类大脑的行为,能够进行计算和自主学习等功能。

 

神经网络由成千上万个小程序组成,它们负责通过简单的计算来执行复杂的任务,例如检测图像中的对象,或将语音转换为文本,而这些也是深度学习的关键。

 

但传统计算机并未针对神经网络操作的特征进行优化,相反,它们由一个或几个强大的CPU组成。

 

相比之下,神经拟态计算机则使用另一种全新的芯片架构——神经拟态芯片,以一种物理的形式来模拟神经网络。

 

神经拟态芯片由许多物理人工神经元组成,这些神经元直接与其软件的对应部分相对应,使得它们能快速地训练和运行神经网络。

 

实际上,神经拟态计算的概念在1980年代就已出现。但当时,神经网络的效率十分低下,因此并未广泛地引起人们的关注。

 

直到近年来,随着技术的发展,以及深度学习和神经网络的兴起,关于神经拟态芯片的研究也再次回到研究人员的关注视野。

 

今年7月,中国的一支清华芯片团队研发出了一颗名为“天机(Tianjic)”的神经拟态芯片,它采用28nm制程,由156个FCores组成。同时,其面积为3.8×3.8毫米,包含了大约40000个神经元和1000万个突触,可同时支持机器学习算法和类脑电路。

 

三大AI芯片架构谁最抢戏1.png 

 

研究人员曾将该芯片整合到自动驾驶自行车中测试芯片性能,显示其能够实现目标检测、导航和语音识别等功能。

 

这一研究成果不仅发表在了顶级学术杂志《自然(Nature)》中,也成功登上了杂志封面。而研究人员也在论文中说到:“我们的研究有望通过为更通用的硬件平台铺平道路,来刺激AGI(通用人工智能)的发展。”

 

尽管目前,并没有直接证据表明神经拟态芯片是创建人工智能的正确途径,但它们肯定会有助于创建更高效的AI硬件。

 

与此同时,神经拟态计算也引起了各大高科技巨头们的关注。

 

今年上半年,英特尔推出了一台装有64个Intel Loihi神经拟态芯片的计算机,名为“Pohoiki Beach”,它能够模拟800万个人工神经元。英特尔表示,Loihi的信息处理速度比传统处理器快1000倍,效率最高10000倍。

 

三大AI芯片架构谁最抢戏2.jpg 

 

二、光学AI加速器与“全光学”神经网络

 

随着技术的发展,神经网络和深度学习计算需要大量的计算资源和电力。

 

但随之而来的,AI的碳足迹也已成为一个环境问题。同时,神经网络的部署也受到能耗的影响,特别在电力有限的环境中十分受限,例如电池供电设备。

 

而且,随着摩尔定律发展的持续放缓,传统的电子芯片也正努力跟上AI行业不断增长的需求。

 

如今,许多公司和研究实验室已转向光学计算领域,以寻找解决AI行业中速度和电力问题的解决方案。

 

简单地说,光学计算使用光子硬件代替电子硬件,并使用光学信号代替数字电子设备来进行计算。

 

由于光学计算设备并不会像铜缆那样产生热量,因此其能耗大大降低。光学计算机也特别适用于快速矩阵乘法,而这也是神经网络中的关键操作之一。

 

今年上半年,总部位于波士顿的光学AI芯片创企Lightelligence研发了一款光学AI加速器,该光学加速器与当前的电子硬件兼容,并可通过优化一些重型神经网络计算,将AI模型的性能提高一两个数量级。

 

Lightelligence的工程师表示,光学计算的进步还将降低制造AI芯片的成本。

 


三大AI芯片架构谁最抢戏3.png 

 

就在前段时间,香港科技大学研究人员研发了双层全光学神经网络。该全光学神经网络(AONN)使用的线性函数和非线性激活函数,均根据光学实现。同时,它还能扩展到更加复杂的神经网络架构,以完成图像识别等更复杂的任务。

 

目前,研究人员已经开发了一种概念验证(proof-of-principle)模型,可以模拟具有16个输入和2个输出的完全连接的两层神经网络。

 

此外,大规模的光学神经网络能以光速和低能耗运行计算密集型应用,包括从图像识别到科学研究领域。

 

三、有史以来最大规模AI芯片:Cerebras WSE

 

在研发AI芯片的过程中,还有一种解决方式就是扩大规模。

 

今年8月,美国硅谷的一家AI芯片创企Cerebras Systems推出了有史以来规模最大的AI芯片,名为“Cerebras WSE”。

 

Cerebras WSE包含1.2万亿个晶体管,其芯片面积为46225平方毫米,比当前市场上最大的英伟达Tesla V100大56倍。

 

同时,该芯片采用台积电16nm制程,面积每边约22厘米(约8.5英寸),拥有40万个AI优化核心和18 Gigabytes片上内存。

 


三大AI芯片架构谁最抢戏4.jpg 

 

在带宽方面,Cerebras WSE还拥有9 PByte/s内存带宽和100 Pbit/s fabric带宽。

 

该芯片主要用于深度学习的加速神经网络训练,不仅能加快数据处理速度,还能以更快的速度训练AI模型。同时,与传统的GPU和CPU相比,Cerebras WSE拥有的独特架构还进一步降低了能耗。

 

当然,该芯片的尺寸也将在一定程度上,影响它在空间受限环境中的使用。因此,它的商用价值在公布后也受到了一定的质疑。

 

然而,Cerebras最近也与美国能源部的两大实验室达成合作,率先签下商用落地的第一份合同。美国能源部将使用该芯片来加速科学、工程和健康领域的深度学习研究。

 

结语:AI芯片市场潜力巨大,正面临落地挑战

 

近年来,AI芯片的风口一度火爆,许多AI芯片创企和研究室拔地而起,针对深度学习训练而研发出的新成果,也一次次地刺激着人们对AI和芯片未来发展认知的神经。

 

就行业来看,AI芯片的市场潜力十分庞大,一面是云端和边缘段AI芯片的火热,一面是终端AI芯片的转型和爆发,IoT、智能家居、智能手机和自动驾驶汽车等多个甚至碎片化的应用场景等待着它的“哺乳”。

 

深度学习应用的行业和领域是多样化的,单一架构几乎不可能主导市场。毫无疑问,未来也将涌现出更多突破性的AI芯片技术,给整个社会、行业和人们的生活带来变革性的发展。

 

现阶段,AI芯片的落地和商用价值也已经进入了大浪淘沙的阶段,未来谁能真正成为赢家?时间将会告诉我们答案。

 

文章来源:VentureBeat

相关资讯
算力、智能与控制的融合:英特尔4U工控机、RK3568主板、HPM伺服板的全面对比

在现代工业自动化向智能化、网络化、柔性化加速演进的大背景下,高性能、高可靠、特定场景优化的核心硬件设备构成了系统的“大脑”、“眼睛”和“四肢”。英特尔4U工控机(IPC-615H5)、RK3568高性能监控主板和HPM6400/6300伺服电机控制板分别代表了通用工业计算平台、边缘AI视觉处理平台和高精度运动控制平台的最典型形态。它们在各自的领域拥有独特优势,共同支撑起复杂的工业控制闭环。本文旨在对这三款核心产品进行全方位对比分析,剖析其技术特点、优劣势、应用场景及市场前景,为工业自动化方案选型提供专业参考。

应对AI算力激增:安森美推出全链路数据中心电源解决方案与指南

人工智能技术,特别是生成式AI和大规模机器学习模型的迅猛发展,对全球数据中心的基础设施提出了前所未有的高要求。海量数据的实时处理与复杂模型训练,导致数据中心计算负载激增,随之而来的功耗攀升已成为产业亟待解决的核心瓶颈。这不仅推高了运营成本,也对电网承载能力和可持续发展目标构成严峻挑战。如何在高性能计算需求持续增长的同时,有效控制并降低能源消耗,成为AI数据中心建设与升级的关键命题。

中日芯片巨头强强联手 芯驰X9SP+罗姆PMIC打造智能座舱新方案

2025年6月25日,全球半导体巨头日本罗姆与中国车规芯片领军企业芯驰科技在上海联合宣布,推出面向智能座舱的参考设计"REF68003"。该方案以芯驰科技旗舰级座舱SoC X9SP为核心,集成罗姆多款高安全等级PMIC电源芯片,已在2025上海车展公开展示。

革新视听!三星2025智能显示器携高端OLED M9与全能AI震撼登场

2025年6月25日,三星电子正式发布三款智能显示器新品——M9(32英寸)、M8(32英寸)及M7(32/43英寸双版本)。该系列首次搭载OLED面板与模块化L型支架,通过AI算法重构人机交互逻辑,标志着智能显示技术进入场景自适应新阶段。

LG Innotek CoF技术挺进iPad OLED供应链 6月迎关键认证

随着苹果持续深化OLED面板在平板电脑领域的应用,其供应链体系正迎来新一轮调整。据产业链权威消息,韩国电子组件制造商LG Innotek正积极推进其覆晶薄膜(Chip on Film, CoF)封装技术进入苹果新一代iPad OLED面板供应链体系。该技术是实现显示驱动芯片与面板电气连接的关键封装方案。