近日,格拉茨技术大学(TU Graz)的计算机科学家在Nature Machine Intelligence期刊上发表论文表明,他们通过在类脑神经形态芯片上模拟人脑的长-短期记忆单元功能,大幅提高运行大型深度学习神经网络的能源效率,最高达到其他 AI系统的16倍。
©Nature MachineIntelligence
近年来,人工智能(AI)得到了突飞猛进的发展,广泛应用于机器视觉、推荐算法、自动驾驶、生物医疗、自然语言处理、智能助手等等生活的方方面面,这样的成就离不开其背后的核心,也即人工神经网络(ANN)和深度学习(DL)技术的突破。人工神经网络非常擅长处理大量数据,能够自主识别和推断对象以及不同对象之间的关系,但其同样极其惊人的能耗一直是阻碍这一领域发展的主要障碍,不仅设备、能源成本高昂导致高度中心化,还会带来大量的碳排放,对环境非常不友好。
©Pexels
而在这次突破性研究中,格拉茨技术大学(TU Graz)理论计算机科学研究所与英特尔神经形态计算实验室的科学家们通过实验展示了,在运行大型深度神经网络处理自然语言句子等序列时,使用他们的神经形态技术硬件所消耗的能量只有非神经形态硬件的1/4甚至是1/16。这一惊人的突破可能会以无法估量的方式推动人工智能的发展。
英特尔的 Nahuku线路板,每一个包含8到32张英特尔的 Loihi神经形态芯片
©Tim Herman/Intel Corporation
让机器更像人
事实上,神经形态的硬件并非是第一次提出。早在2014年,芯片制造头部企业高通(Qualcomm)就做出了他们自己的神经形态芯片(入选2014年全球十大突破性技术),称其为 Zeroth计划,并将其用于一只名叫 Pioneer的哈巴狗大小的机器人。通过在芯片上直接模拟由亿万级别的神经元和突触构成的大脑,这一技术能够以大规模并行方式处理信息,凭借区区一块智能手机芯片和摄像头,Pioneer就能通过模仿和学习实现通常需要大型深度学习神经网络、复杂特殊的编程以及大量电力才能完成的动作和任务。这是由于,相比于计算机传统的基于冯·诺依曼架构的线性计算,神经形态芯片在处理图像或是声音方面的能力和效率要高得多,能够以一种更像人的方式去理解周遭的环境和叙事,并对它们做出响应。
具体到应用,高通最为关注的是AI智能助理方面,有了神经形态芯片的加持,智能助理将能以人类的方式去理解世界并与之互动,并学会预测你接下来的需求,比如不仅提示你照片中某个人物的名字,还可以帮助你回忆你和这个人是如何、在哪里认识的,以及你们之间发生了什么故事等等。
不过,高通的 Zeroth本质上只是在芯片上通过模拟的方式搭载神经形态软件,虽然效果显著,但与真正的“硬核”神经网络还有很大的差距。与此同时,欧洲的人类大脑计划(Human Brain Project, HBP)也投入约1亿欧元用于神经形态技术研究,TU Graz与英特尔的这项研究突破就是由该计划资助的,而这一次,模拟大脑的深度学习软件终于用上了同样受大脑启发的神经网络硬件。
高通的 Zeroth NPU以及 Pioneer机器人
©Tim Herman/Intel Corporation
向大脑学习
那么,TU Graz和英特尔的合作项目为什么能做到如此节能呢?这和他们模拟人脑的做法有关。人类大脑的能效极高,其中的数千亿个神经元在处理信息时只消耗大约20瓦的能量,差不多仅仅相当于一个普通的节能灯泡的能耗。
大脑,绝不虚标!©John3/TopPNG
研究人员发现,这种惊人的低能耗与人脑的一种短期记忆机制相关,“实验表明在没有神经活动的情况下,人脑仍然能够在短时间内存储信息,存储位置在神经元所谓的“内变量”上,”TU Graz教授、论文通讯作者沃夫冈·玛斯(Wolfgang Maass)解释道,“模拟实验表明一种神经元子集的疲劳机制是实现这种短期记忆的关键所在。”
沃夫冈·玛斯(Wolfgang Maass)教授©Lunghammer-TU Graz
目前这项研究缺乏直接证据,因为这些“内变量”暂时无法被测量,不过这已经意味着大脑神经网络只需要通过检测哪些神经元处于疲劳状态就可以重建它们之前处理的信息。换句话说,先前的信息(也即短期记忆)被存储在神经元的不活动状态中,而神经元不活动就意味着消耗的能量最少。
英特尔的Nahuku线路板©Tim Herman/Intel Corporation
于是,研究人员试图复刻这种大脑机制以取代当前传统计算机芯片上高耗能的逐个检索、来回访问存储的方式,采用英特尔的神经形态 Loihi芯片组成矩阵,开发出一种超极化后电位(AHP)电流机制,并使用了两种深度学习网络进行测试。其中,反馈神经网络负责“短期记忆”,使用大量循环模块去寻找输入信号中可能相关的信息;而前馈神经网络则负责判断找到的这些关系当中哪一些是真正与当前任务有关的,并将无意义的关系筛掉。只有处理相关关系的“神经元”模块会被触发,其他的则一概处于静止状态,从而实现能耗的大大降低。
菲利普·普兰克(Philipp Plank)©diemosbachers.at
在测试中,研究人员在32张 Loihi芯片的网络上运行他们的算法,并将一个由20个句子组成的故事给到了该神经网络,测试它对故事含义以及其中人、事、物关系的理解。结果表明,这一装置的能效大幅超过了传统计算机,“我们这个系统的能源效率达到了在传统硬件上运行其他 AI模型的4到16倍”,TU Graz玛斯教授的博士生、论文作者之一菲利普·普兰克(Philipp Plank)提到。同时,未来用上英特尔下一代的 Loihi芯片之后,芯片间通讯的效率将得到大幅提升,所以他还预计,该系统的能效将进一步提高。
麦克·戴维斯(Mike Davies)
©Tim Herman/Intel Corporation
“英特尔与 TU Graz的合作进一步证明了神经形态技术能够通过从生物学的角度重新思考并颠覆深度学习技术,大幅提高其目前的能源效率。”
——英特尔神经形态计算实验室的负责人麦克·戴维斯(Mike Davies)
多学科交叉发展
事实上,信息技术、人工智能与生命科学、脑神经科学等的融合催生出突破性进展本身并不是什么新鲜事了,这一点从历年的《麻省理工科技评论》“全球十大突破性技术”评选就能看出,而这在大脑这一人体最复杂、精密的器官身上体现得尤为突出。
2006年入选“全球十大突破性技术”的“弥散张量成像”(DTI)技术通过追踪大脑中水分子扩散的方向来绘制其中轴突的分布和走向,让我们得以一窥大脑中神经元之间传输电信号的脑白质的真容,这一大脑成像技术的重大进展加深了我们对大脑运作方式的认知。
“DTI让我们能够以前所未有的方式检视大脑。”
——明尼苏达大学医学院神经系统科学家和精神病学家开尔文·林(Kelvin Lim),该技术的研究者之一
2008年入选“全球十大突破性技术”的“神经连接组学”则另辟蹊径,通过荧光蛋白等技术给大脑的神经网络进行染色,从而尝试为神经系统中收集、处理和存储信息的错综复杂的神经回路创建物理映射,方便直接观察。这一技术大大提高了科学家观察大脑的“图像分辨率”,使得他们可以在“大脑线路图”中一目了然地观测信息是如何在大脑的不同区域、不同神经元以及不同突触之间传输的,进而研究各种发生机制,以及精神类疾病、神经系统疾病究竟是哪些线路出错导致的缺陷。
“大脑本质上是一台计算机,其发育过程实质上就是自行布线的过程,它还支持重新布线(以适应变化)。如果现在有一张大脑的线路图,我们就能更好地了解它是如何工作的。”
——麻省理工学院计算神经科学家塞巴斯蒂安·宋(Sebastian Seung),该技术的研究者之一
我们对大脑结构认知的不断进步带来的是人工智能领域的突破性进展,其核心、也是前面提到过的深度学习技术(入选2013年“全球十大突破性技术”)就是一个典型的例子。它仿照大脑的神经网络去构建人工的深层神经网络架构,将大量数据筛过一层一层的“神经元”,赋予机器以“学习”的能力。
无独有偶,2014年与“神经形态芯片”一同入选“全球十大突破性技术”的“大脑图谱”则是受益于偏振光成像技术的发展而产生的脑神经科学突破。同样是在欧洲的人类大脑计划(HBP)的资助下,一个由德国和加拿大科学家领导的研究小组花了十年的时间制作了一个大脑的三维图集,构建了一个支持在其中自由游走、放大、缩小以查看细节的高精度“数字大脑”,可以让科学家非常清晰地看到完整脑组织内细胞和神经纤维的排列以及神经元、神经回路的空间结构,其分辨率达到了此前这类图集的50倍。
这一类的重大突破使得我们对大脑机制的认知达到空前的高度,也带来了人工智能领域的飞跃式发展。2017年,