神经形态计算试图模仿人类大脑的工作方式。
神经形态计算是下一代计算的更好候选者。该术语最早由 Carver Mead 教授在 80 年代提出,它描述的是模拟人脑的计算。在过去的十年中,许多公司和机构一直致力于神经拟态计算,以 IBM 为例 IBM True North 芯片是世界上第一个成为非基础架构的神经拟态芯片。
TrueNorth 芯片有 4096 个内核,每个内核包含 256 个数字(约 100 万个新房间和超过 2.5 亿个突触。)。
现在,这是相对较新的计算概念。人脑 典型的人脑包含 86 到 870 亿个神经元和 10 到 15 次突触。
当我们在大脑中执行任务、计算任务时,我们只消耗了整个神经元数量的一小部分。这就是为什么人脑非常节能的原因,我们消耗了 20 瓦的功率,并且我们能够实现 1 exaFLOP(一个 exaFLOP 是每秒五分之一 (1018) 次浮点运算或 1, 000 petaFLOPS),让我们把这个进入透视世界最快的超级计算机IBM峰会消耗30兆瓦的功率,它能够200 peddle flops人脑消耗20瓦的功率,能够1x exaflops,这是IBM峰会计算能力的五倍。
它采用神经运动神经形态计算的计算机人脑之后直接仿照它采用特殊的人工叫脉冲神经网络(SNN)的神经网络方法。这不要与基于软件的算法相混淆,例如卷积神经网络 (CNN)、循环神经网络 (RNN) 或生成对抗网络 (GAN)。
为神经形态计算机提供动力的神经形态芯片可能无法取代传统的计算芯片,例如 CPU GPU 或特定应用的 IC。然而,神经形态计算机有能力添加到为人工智能执行深度学习的现有计算机中。从 IBM TrueNorth 到英特尔忠诚度,再到曼彻斯特大学,每家公司或机构都在为神经形态计算芯片开发独特的解决方案。
限制:
虽然当今的计算机可以做很多人类可以做的事情,但它们至少缺少两个方面,即机器推理和迁移学习。 Léon Bottou,专家定义的机器推理作为
Algebraically manipulating previously acquired knowledge in order to answer new question.
迁移学习是指将学习到的经验从一种环境转移到另一种环境的能力。
还有第三个角度,即物理尺寸和能源消耗。超级计算机代表最高的计算速度,当前版本的速度以 PFLOP 为单位(每秒 10^15 次浮点运算)。但这些都是安装在专用建筑物中的笨重设备,它们需要以 MW 为单位的功率。人脑消耗大约 20 W 的功率。