科技

当前位置:手机版美高梅网站 > 科技 > 流言可让机器超越人脑,Moore定律终结实行时

流言可让机器超越人脑,Moore定律终结实行时

来源:http://www.best-sclae.com 作者:手机版美高梅网站 时间:2019-10-10 02:29

今天,说到芯片,可能大家或多或少都知道一点,至少人工智能、CPU什么的经常听到,智能设备的离不开智能芯片和智能系统。

随着世界数据量不断增加,目前摩尔定律下的处理器集成器件数量越发接近极限,当下急需通过架构的变化以应对大数据的需求。人工智能芯片也在此背景下崛起,目前已为大众所熟知的主流AI芯片架构包括:GPU,FPGA,ASIC,而类脑芯片由于其极强的学习能力也被抱以极高的期待。本文将就类脑芯片介绍其发展情况。

14020199044刘发强

图片 1

类脑芯片的由来

嵌牛导读

现代计算机架构都是基于冯·诺依曼结构,这种结构会将程序和数据分开存储,一是指令集,一是数据集,计算机在运算过程中,需要在CPU和内存这两个区域往复调用,对于少量数据流而言还好,但是对于大数据而言,就会出现问题了。

目前,传统的计算芯片主要基于冯•诺依曼结构。在这种结构中,计算模块和存储模块是分开的。CPU在执行命令时需要先从存储单位读取数据,这就产生延时及大量的功耗浪费。因此需要更为扁平化的结构能够更快,更低功耗的处理问题。而人脑的神经结构由于其强大的处理能力,动态可塑的性质,较低的能量消耗便成为了模拟对象,类脑芯片就此诞生。

基于神经元软件模拟的人工神经网络在机器学习领域表现极佳且已经具有了一定的工业应用价值,但是计算量大、功耗高。另一条路线是直接用微电子电路模拟神经元的特性,即神经形态芯片。后者更加接近人脑的信息处理机制,表现出更好的并行性、容错性、低功耗等特点,也有助于模拟人脑时空多尺度的信息处理特点。类脑计算始于20世纪80年代,其中代表性的项目有欧盟的FACETS及其后续项目Brainscale、IBM的TrueNorth等。

图片 2

图片 3

牵牛鼻子

随着深度学习算法的出现,像神经网络、蚁群算法、支持向量机、随机森林等等。对芯片的计算力要不断提高,当CPU需要在海量数据上执行一些简单指令时,大数据流将严重降低整体效率,而CPU将将在数据流动过程中暂时的闲置。此外,长时间高速运行也会给芯片带来大量的热量问题,这就是为何高配游戏机使用水冷,视频渲染时电脑风扇拼命高速运转散热。

类脑芯片结构非常独特,可以仿照人类大脑的信息处理方式进行感知、思考、产生行为。人脑中的突触是神经元之间的连接,具有可塑性,能够随所传递的神经元信号强弱和极性调整传递效率,并在信号消失后保持传递效率。而模仿此类运作模式的类脑芯片便可实现数据并行传送,分布式处理,并能够以低功耗实时处理海量数据。

类脑计算;Truenorth;

图片 4

目前几乎所有的人工智能系统都需要进行人工建模,转化为计算问题进行处理再进行深度学习,而人脑却可以自动感知,进行问题分析和求解,决策控制等。因此类脑芯片也有望形成有自主认知的水平,可自动形式化建模。

嵌牛提问

为了解决CPU在大量数据运算效率低和能耗高的问题,目前有两种发展路线:一是延用传统冯诺依曼架构,主要以3中类型芯片为代表:GPU、FPGA、ASIC;二是采用人脑神经元结构设计芯片来提升计算能力,已完全拟人化为目标,追求在芯片架构上不断逼近人脑,这类芯片被称为类脑芯片。

类脑芯片的产业化

深度学习的地位在20年内能否被神经形态计算芯片取代?

图片 5

追溯类脑芯片的真正落地,还要从TrueNorth说起。TrueNorth 是 IBM 潜心研发近 10 年的类脑芯片。美国 DARPA 计划从 2008 年起就开始资助 IBM 公司研制面向智能处理的脉冲神经网络芯片。

嵌牛正文

所谓类脑芯片,顾名思义,就是模拟大脑工作方式的芯片。我们知道人脑神经元在接受到刺激后,其细胞膜内外带电离子分布将发生变化,因而形成电位差,电位差将沿着神经细胞轴突、树突双向传导,形成脉冲电流。而当该电信号传递到突触时,突触前神经元将释放神经递质由突触后神经元接受神经递质产生兴奋,并向下传递作用与人体反应器并发生反应。

2011年8月,IBM公司通过模拟大脑结构,首次研制出两个具有感知认知能力的硅芯片原型,可以像大脑一样具有学习和处理信息的能力。这两颗类脑芯片原型均采用45纳米绝缘体上硅CMOS工艺制作,包含256个神经元和256个轴突。其中一个芯片包含65356个学习突触,它能够发现新的神经元连接路径,可通过经验进行学习,并根据响应对神经元连接路径进行重组;而另一个芯片包含262144个可编程突触,可以根据预先设定,通过强化或弱化神经元之间的连接,更迅速、更高效地处理信息。类脑芯片的每个神经元都是交叉连接,具有大规模并行能力。但因技术上的限制,被IBM戏称为“虫脑”。

TrueNorth是IBM 2014年发布的仿人脑芯片,在这个只有邮票大小的硅片上,集成了100万个“神经元”,256个“突触”,4096个并行分布的神经内核,用了54亿个晶体管,然而功耗却只有70mW。之前,曾报道过IBM用TrueNorth芯片在构建了电子的啮齿动物大脑的新闻,近日,IBM又公布了与美国空军研究实验室、美国陆军研究实验室、以及劳伦斯·利物莫国家实验室在TrueNorth芯片应用方面合作的最新成果。

图片 6

图片 7

以下是TrueNorth的应用领域:

类脑芯片架构就是模拟人脑的神经突触传递结构,众多的处理器类似于神经元,通讯系统类似于神经纤维,每个神经元的计算都是在本地进行的,从整体上看神经元们分布式进行工作的,也就是说整体任务进行了分工,每个神经元只负责一部分计算。在处理海量数据上这种方式优势明显,并且功耗比传统芯片更低。

2014年8月,IBM公司推出名为“TrueNorth”的第二代类脑芯片。它使用了三星的28nm的工艺,包括54亿个晶体管和4096个处理核,相当于100万个可编程神经元,以及2.56亿个可编程突触。其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为 20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。

手势识别(gesture recognition )

图片 8

“TrueNorth”的每个处理核包含了约120万个晶体管,其中少量晶体管负责数据处理和调度,而大多数晶体管都用作数据存储、以及与其它核心的通信方面。此外,每个核心都有自己的本地内存,它们还能通过一种特殊的通信模式与其它核心快速沟通,其工作方式非常类似于人脑神经元与突触之间的协同,只不过,化学信号在这里变成了电流脉冲。IBM把这种结构称为“神经突触内核架构”,如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,那这48颗芯片带来的智力水平将相似于普通老鼠。

情绪识别(emotion recognition )

TrueNorth是IBM 2014年发布的类人脑芯片,在这个只有邮票大小的硅片上,集成了100万个“神经元”,256个“突触”,4096个并行分布的神经内核,用了54亿个晶体管,然而功耗却只有70mW。加载了神经网络模型的TrueNorth芯片,可作为实时感知流推理引擎使用,而且能够在快速、准确分类的同时保持超低功耗。TrueNorth拥有100万个神经元,邮票大小,能力相当于一台集成了“神经突触”的超级计算机。

16年,IBM又公布了与美国空军研究实验室、美国陆军研究实验室、以及劳伦斯•利物莫国家实验室在TrueNorth芯片应用方面合作的最新成果,包括手指识别、情绪识别、图像分类和对象追踪等。

光流(optic flow )

除了TrueNorth外,英特尔Loihi芯片、高通Zeroth芯片、西井科技DeepSouth芯片、浙大“达尔文”类脑芯片、AI-CTX芯片也都在类脑芯片上努力。

2017年,英特尔发布了Loihi芯片,它采用了一种新颖的方式通过异步脉冲来计算,同时整合了计算和存储,模仿了大脑根据环境的各种反馈来学习如何操作的运作方式,可以利用数据来学习并做出推断,随着时间的推移也会变得更加的智能,并且不需要以传统方式来进行训练。

图像分类和对象追踪(image classification and object tracking)

图片 9

图片 10

实时的时空感官信息处理(real-time spatio-temporal sensory information processing )

低能耗,容错性,无需编程,是人类大脑的神奇所以,大脑在于外界交互过程中自发学习和改变,并非遵循预先设计好的算法。因此,因此未来机器想要真正智能,类脑芯片的发展是必然,当然目前这条路还很遥远,但这一方向是辉煌的,让我们一起关注类脑芯片及相关科技的发展。

Loihi采用的是异构设计,由128个Neuromorphic Core+3个低功耗的英特尔X86核心组成,号称拥有13万个神经元和1.3亿个触突。

机器学习(machine learning )

与 TrueNorth 和Loihi不同, 高通公司开展研究的是Zeroth “认知计算平台”,曾在业界引起了巨大的震动。原因就在于它可以融入到高通公司量产的 Snapdragon处理器芯片中,以协处理的方式提升系统的认知计算性能,并可实际应用于手机和平板电脑等设备中,支持诸如语音识别、图像识别、场景实时标注等实际应用并且表现卓越。

机器人(robotics )

中国的类脑芯片

实时语音识别(always-on speech recognition )

中国也十分重视类脑研究,不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略:一体即认识脑:以阐释人类认知的神经基础为主体和核心;两翼即保护脑:预防、诊断和治疗脑重大疾病和模拟脑:类脑计算。

音频特征提取(audio feature extraction )

中国的学术界也展开了对类脑的研究,2015 年中科院、清华、北大,相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制攻关人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。

二进制映像分类(binary image classification )

同时,国内也出现了专注类脑芯片研发的初创团队,像西井科技、AI-CTX、浙大的达尔文芯片等。

概率推理(probabilistic inference )

类脑芯片的最新进展

低能耗的神经形态分类器(energy-efficient neuromorphic classifiers )

目前学术界有关类脑芯片也有了一些新的进展,17年清华大学微电子所钱鹤、吴华强课题组在《Nature Communications》在线发表了题为《使用电子突触阵列实现人脸识别》的研究成果,将氧化物忆阻器的集成规模提高了一个数量级,首次实现了基于1024个氧化物忆阻器阵列的类脑计算。该成果在最基本的单个忆阻器上实现了存储和计算的融合,采用完全不同于传统“冯•诺依曼架构”的体系,可以使芯片更加高效地完成计算任务,使能耗降低到原千分之一以下。

递归神经网络(recurrent neural networks )

2018年,麻省理工的工程师设计了一种人造突触,可以实现精确控制流过这种突触的电流强度,即类似离子在神经元之间的流动。研究发表在《Nature Materials》上,这一成果也被认为是迈向用于模式识别和其它学习任务的便携式低功耗神经形态芯片的重要一步。

生成模型(generative models )

总结

视觉显著性网络(visual saliency networks )

类脑智能研究已取得了阶段性的进展,但是目前仍然没有任何一个智能系统能够接近人类水平,下一阶段类脑芯片的研究重点是增强神经计算电路模块的通用性,降低设计、制造的难度;此外,还需要迫切解决类脑计算芯片的功耗问题,比如探索超低功耗材料以及计算结构,为进一步提高类脑计算芯片的性能奠定基础。

文本图像识别(text image recognition )

未来,我们期待类脑计算领域的重大突破,为信息产业提供革命性的发展机遇。

移动超声波(mobile ultrasound )

本文已标注来源和出处,版权归原作者所有,如有侵权,请联系我们。

快速的稀疏逼近(fast sparse approximation)

......

2016年对于仿人脑计算来说意义重大。IBM的TrueNorth团队在《针对快速、高能效神经形态计算的卷积网络》(“Convolutional networks for fast, energy-efficient neuromorphic computing”)论文中证明了,仿人脑计算可以用前所未有的超低能耗执行神经网络推理。简单地说,TrueNorth芯片并没有采用冯诺依曼架构,而是模仿了人类大脑的神经元结构,它的计算效率和可扩展性都远胜今天的计算机。

加载了神经网络模型的TrueNorth芯片,可作为实时感知流推理引擎使用,而且能够在快速、准确分类的同时保持超低功耗。TrueNorth拥有100万个神经元,邮票大小,能力相当于一台集成了“神经突触”的超级计算机,然而功耗却只有70mW,用手机的电池就够跑它跑一个星期了。

雷锋网了解到,最近,IBM刚刚联合劳伦斯·利物莫国家实验室、美国空军研究实验室、美国陆军研究实验室,共同在享有盛誉的2016 IEEE超级计算会议上发表了关于TrueNorth的第五篇论文。在论文中,IBM总结了12年半以来的成果。

图片 11

IBM的三个合作伙伴:美国陆军研究实验室,美国空军研究实验室,以及劳伦斯·利物莫国家实验室,分别在论文展示了不同的TrueNorth系统。

美国陆军研究实验室展示了数据传输方案模型,TrueNorth的低功耗特性使得在收集数据的同时能够进行计算。该模型使用了单芯片的NS1e主板和一台安卓平板,美国陆军研究实验室的科研人员允许访问者在平板上手写算数运算式,然后手写的算数式会被传送到NS1e上进行字符识别,而那些被识别的字符将会被传送回平板进行计算。

当然,实验的最终目的并不是要做一个手写计算器,而是想展示如何利用TrueNorth芯片的低功耗和实时模式识别特性,帮助在部署数据收集时,减少延迟、降低数据复杂性、减少传输宽带需求,同时解决分布式系统终端的数据存储需求。

美国空军研究实验室则展示了另一个应用模型:利用TrueNorth横向扩展系统来执行并行数据的文本提取和识别任务。在这个应用中,图像文本被分割成单独的字符,然后被传输到美国空军研究实验室的NS1e16 TrueNorth系统里进行并行字符识别。归类之后的结果将会被传送到基于推理的自然语言模型中来重建单词和句子。这个系统每秒中可以处理16000个字符。美国空军研究实验室计划将词句的推理算法也植入到TrueNorth中。

得益于TrueNorth芯片自然堆叠的特性,劳伦斯·利弗莫尔国家实验室用有16块芯片的NS16e扩展系统,通过大型的神经模型和更复杂的算法,来探索后冯·诺依曼时代的计算潜力。在超级计算的论文中,他们探索了单芯片在监控增材制造过程中的原位合成(一种最近发展起来制备复合材料的新方法)的应用。

劳伦斯利弗莫尔国家实验室训练了一个TrueNorth网络,能够追踪激光熔化机的焊点质量,而且可以识别7种等级。实时的焊点质量监控使得闭环工艺改进和立即排除缺陷部件成为可能。这只是劳伦斯·利弗莫尔国家实验室正在开发的,能够展现TrueNorth作为可扩展平台的低功耗和实时推理特性的几个应用之一。

目前,TrueNorth仍然只是一个概念验证的研究模型。IBM表示,未来将发布更多的API,让合作伙伴能够将实时传感器连接到TrueNorth。像三星的digital eye以及加州大学欧文分校的自动驾驶机器人的早期模型都已经在试验中。IBM的首席科学家Dharmendra Modha则表示:“我有信心,我们可以在未来的4年里达到商业化的规模。”

距离TrueNorth的发布已经两年了,相比发布时的轰动,它的前景在近两年里一直被质疑。借着AI大热的东风,TrueNort会迎来真正的爆发吗?

本文由手机版美高梅网站发布于科技,转载请注明出处:流言可让机器超越人脑,Moore定律终结实行时

关键词: