×

算法进化 芯片 AI时代

软件吞噬硬件的AI时代,芯片跟不上算法进化可咋办?

smdaily smdaily 发表于2021-02-22 18:22:11 浏览308 评论0

抢沙发发表评论

作为AI时代的幕后英雄,芯片业正经历着渐进而持续的变化。

2008年之后,深度学习算法逐渐兴起,各种神经网络渗透到手机、App和物联网中。与此同时,摩尔定律却逐渐放缓。摩尔定律虽然叫定律,但它不是物理定律或者自然定律,而是对半导体行业发展的一个观察或者说预测,其内容为:单个芯片集成度(集成电路中晶体管的密度)每两年(也有18个月的说法)翻倍,由此带来性能每两年提高一倍。

保证摩尔定律的前提,是芯片制程工艺进步。经常能在新闻上看到的28nm、14nm、7nm、5nm,指的就是制程工艺,数字越小工艺越先进。随着制程工艺的演进,特别是进入10nm之后,逐渐逼近物理极限,难度越发加大,芯片全流程设计成本大幅增加,每一代较上一代至少增加30%~50%。

这就导致,AI对算力需求的增长速度,远超通用处理器算力的增长速度。据OpenAI测算,从2012年开始,全球AI所用的计算量呈现指数增长,平均每3.4个月便会翻一倍,而通用处理器算力每18个月至两年才翻一倍。

当通用处理器算力跟不上AI算法的发展,针对AI计算的专用处理器便诞生了,也就是常说的“AI芯片”。目前,AI芯片的技术内涵正极大丰富着。从架构创新到先进封装,再到模拟人脑,都影响着AI芯片的走向。而这些变化的背后,都有着一个共同的主题:以更低功耗,产生更高性能。

更灵活

2017年的图灵奖,颁给了计算机架构两位先驱DavidPetterson和JohnHennessy。2018年在进行图灵奖演讲时,他们将主题聚焦于架构创新,指出计算体系结构正迎来新的黄金十年。正如他们所判断的,AI芯片不断出现新的架构,比如来自英国Graphcore的IPU——一种迥异于CPU和GPU的AI专用智能处理器,已经逐渐被业界认可,并且Graphcore也获得了微软和三星的战略资本支持。

而当下,一种名为CGRA的架构,在学界和工业界正受到越来越多的关注。CGRA全称CoarseGrainedReconfigurableArray(粗颗粒可重构阵列),是“可重构计算”理念的落地产物。

据《可重构计算:软件可定义的计算引擎》一文介绍,这个理念最早出现在20世纪60年代,由加州大学洛杉矶分校的Estrin提出。由于过于超前,直到40年以后才获得系统性的研究。加州大学伯克利分校的DeHon等将可重构计算定义为具有以下特征的体系结构:在其制造后,芯片功能仍然可以定制,形成加速特定任务的硬件功能;计算功能的实现,主要依靠任务到芯片的空间映射。

简言之,可重构芯片强调灵活性,在制造出来后仍可通过编程调整,适应新算法。与之形成高度对比的,是ASIC(application-specificintegratedcircuit,专用集成电路)。ASIC芯片虽然性能高,但却缺乏灵活性,往往是针对单一应用或算法设计,难以匹配新算法。

2017年,美国国防部高级研究计划局(DefenceAdvancedResearchProjectsAgency,即DARPA)提出了电子产业复兴计划(ElectronicsResurgenceInitiative,简称ERI)。该计划其中一个任务就是“软件定义芯片”,打造接近ASIC性能、同时不牺牲灵活性的芯片。

按照进行重构时的粒度区别,可重构芯片可分为CGRA和FPGA(field-programmablegatearray,现场可编程逻辑门阵列)。FPGA在工业界已经有一定规模应用,比如微软将FPGA芯片带入大型数据中心,用于加速Bing搜索引擎,验证了FPGA灵活性和算法可更新性。但FPGA有其局限性,不仅能效和ASIC仍有较大差距,而且重编程门槛比较高。

而CGRA由于实现原理上的差异,比FPGA能实现更加底层的重新编程,在面积效率、能量效率和重构时间上,都更有优势。可以说,CGRA同时集成了通用处理器的灵活性和ASIC的高性能。

(可重构计算架构与现有主流计算架构在能量效率和灵活性上的对比,图片来自《中国科学》)

随着AI计算逐渐从云端下沉到边缘端和IoT设备,不仅算法多样性日益增强,芯片更加碎片化,而且保证低功耗的同时,也要求高性能。在这种场景下,高能效高灵活性的CGRA大有用武之地。

由于在结构上不统一、编程和编译工具不成熟、易用性上不够友好,CGRA未被业界广泛使用,但已经可以看到一些尝试。早在2016年,英特尔便将CGRA纳入其至强处理器。三星也曾尝试将CGRA集成在8K高清电视和Exynos芯片中。

在中国本土,一家名为“清微智能”的公司,于2019年6月量产了全球首款CGRA语音芯片TX210,同年9月又发布了全球首款CGRA多模态芯片TX510。这家公司脱胎于清华大学魏少军教授牵头的可重构计算研究团队,他们从2006年起就进行相关研究。据芯东西2020年11月报道,语音芯片TX210已经出货数百万颗,而多模态芯片TX510在11月也已经出货十万颗以上,主要客户为智能门锁、安防和人脸支付相关厂商。

先进封装上位

如开篇所提到,由于制程工艺逼近物理极限,摩尔定律逐渐放缓。与此同时,AI算法的进步,使其对算力需求增长迅猛,逼迫芯片行业在先进工艺之外探索新的方向,其中之一便是先进封装。

“在大数据和认知计算时代,先进的封装技术正在发挥比以往更大的作用。AI的发展对高能效,高吞吐量互连的需求,正在通过先进的封装技术的加速发展来满足。”世界第三大晶圆代工厂格罗方德平台首席技术专家JohnPellerin曾在一份声明中表示。

先进封装是相对于传统封装而言。封装是芯片制造的最后一步:将制作好的芯片器件放入外壳中,并与外界器件相连。传统封装的封装效率低,存在很大改良空间,而先进封装技术发力于提高集成密度。

先进封装里有很多技术分支,其中Chiplet(小芯片/芯粒)是最近两年的大热门。所谓“小芯片”,是相对传统芯片制造方法而言。传统芯片制造方法,是在同一块硅片上,用同一种工艺制程去打造一块芯片。而Chiplet思路是将一块完整芯片的复杂功能进行分解,把存储、计算和信号处理等功能模块化成裸芯片(Die)。这些裸芯片可以用不同工艺制程制造,甚至可以是不同公司提供的。通过互联接口将它们相连接后,就形成一个Chiplet的芯片网络。

据壁仞科技研究院唐杉分析,Chiplet历史更久且更准确的技术词汇应该是异构集成(HeterogeneousIntegration)。总的来说,这个技术趋势是比较清晰明确的,而且第一阶段的Chiplet形态在技术上已经比较成熟,除了成本比较高,在很多高端芯片上已经使用。

比如,HBM存储器成为Chiplet技术早期成功应用的典型代表。AMD在Zen2架构芯片上使用了chiplet思路,CPU用的是7nm工艺,I/0则使用的是14nm工艺,与完全由7nm打造的芯片相比成本大约降低了50%。英特尔也推出了基于Chiplet技术的AgilexFPGA家族产品。

(异构集成示意动画,素材来自IC智库)

不过,Chiplet技术仍面临诸多挑战,最重要之一是互连接口标准。互连接口重要吗?如果是在大公司内部,比如英特尔或AMD,有专用协议和封闭系统,在不同裸芯片间连接问题不大。但在不同公司和系统之间进行互连,同时保证高带宽、低延迟和每比特低功耗,互连接口就非常重要了。

2017年,DARPA推出了CHIPS战略计划(通用异构集成和IP重用战略),试图打造一个开放的连接协议。但DARPA项目的一个短板是,侧重于国防相关项目,芯片数量不大,与真正的商用场景有差距。因此,芯片行业里一些公司成立了行业组织“ODSA(开放领域特定架构)工作组”,通过制定开放的互连接口,为Chiplet的发展扫清障碍。

另辟蹊径

除了在现有框架内做架构和制造上的创新,还有研究人员试图跳出计算机现行的冯·诺依曼架构,开发真正模拟人脑的计算模式。

在冯·诺依曼架构中,数据计算和存储是分开进行的。而内存存取速度往往严重滞后于处理器的计算速度,造成“内存墙”问题。并且,传统计算机需要通过总线,连续地在处理器和存储器之间进行刷新,这就导致芯片的大部分功耗都消耗在读写数据上,而不是算术逻辑单元,又衍生出“功耗墙”问题。人脑则没有“内存墙”和“功耗墙”问题,它对信息的处理和存储是一体的,计算和记忆可以同时进行。

(通用处理器中典型操作的能耗,图片来自《中国科学》杂志)

另外一方面,当前推动AI发展的深度神经网络,虽然名字里有“神经网络”四个字,但实际上跟人脑神经网络的运作机制相差甚远。1000亿个神经元,通过100万亿个突触并行连接,使得人脑能以非常低的功耗(约20瓦),进行同步记忆、演算、推理和计算。相比之下,当前的深度神经网络,不仅需要大规模数据进行训练,在运行时还消耗极大的能量。

因此,如何让AI像人脑一样工作,一直是学界和业界积极探索的课题。1980年代后期,加州理工学院教授卡弗·米德(CarverMead)提出了神经形态工程学的概念。经过多年发展,业界和学界对神经形态芯片的摸索逐渐成形。

软件方面,被称为第三代人工神经网络的“脉冲神经网络”(SpikeNeuralNetwork,简称SNN)应运而生。这种网络以脉冲信号为载体,更接近人脑的运作方式。硬件方面,大型机构和公司研发相应的脉冲神经网络处理器。

事实上,早在2008年,DARPA就发起了一个计划——神经形态自适应塑料可扩展电子系统(SystemsofNeuromorphicAdaptivePlasticScalableElectronics,简称SyNAPSE,正好是“突触”之意),希望开发出低功耗的电子神经形态计算机。

IBMResearch成为了SyNAPSE项目的合作方之一。2014年,他们发表论文展示了最新成果——TrueNorth。这个类脑计算芯片拥有100万个神经元,能以每秒30帧的速度输入400×240像素的视频,功耗仅63毫瓦,相比冯·诺依曼架构的计算机有质的飞跃。

英特尔在2017年展示了一款名为Loihi的神经形态芯片,包含超过20亿个晶体管、13万个人工神经元和1.3亿个突触,比一般训练系统所需的通用计算效率高1000倍。2020年3月,研究人员甚至在Loihi上实现了嗅觉识别。这一成果可应用于诊断疾病、检测武器和爆炸物以及及时发现麻醉剂、烟雾和一氧化碳气味等场景。

在中国本土,清华大学类脑计算研究中心的施路平教授团队,开发了一款面向人工通用智能的“天机”芯片,同时支持脉冲神经网络和深度神经网络。2019年8月1日,天机成为中国第一款登上《Nature》杂志封面的芯片。

尽管已经有零星研究成果,但总的来说,脉冲神经网络和处理器仍是研究领域的一个方向,而没有在工业界大规模应用,主要是因为基础算法上还没有关键性的突破,达不到业界应用的精度,而且实现成本比较高。