📜  AHA:人工海马算法

📅  最后修改于: 2022-05-13 01:58:08.104000             🧑  作者: Mango

AHA:人工海马算法

大多数 ML 研究涉及对来自大型标记数据集的样本进行缓慢的统计学习。人类和动物不会以这种方式学习。动物学习的一个重要特征是情景学习,即快速记忆特定经验作为现有概念的组合的能力,无需提供标签。

以下是生物学习的品质:

  • 能够学习和推理特定实例,即使它们非常相似。
  • 概括其他经验。
  • 从部分线索中识别实体具有特别的鲁棒性。
  • 学习无标签
  • 在样本方面有效率(一次性学习)。
  • 不断学习新知识。

ML 社区越来越有兴趣寻找具有这些品质的算法。 AHA 和一次性学习可以完成其中的一些任务。与大多数机器学习模型不同,AHA 是在没有任何外部标签的情况下进行训练的,并且仅使用本地和即时奖励。

大脑中的海马结构

海马体包含在一个被广泛认为对学习和记忆至关重要的大脑区域内,即内侧颞叶。据了解,学习速度很快,在几天的短时间内保留知识,并在这段时间内有选择地将记忆整合到执行缓慢统计学习的新皮层中。下面是互补学习系统系统的设计,它包含两个不同的部分:海马结构和处理短期和长期记忆的新皮层。

CLS解释

以下是大脑海马结构的设计:



大脑的海马结构

内嗅皮层 (EC) 是新皮层和海马体之间的主要通道。它将来自表层 (EC in ) 的输入发送到海马层,并从海马层 (EC out ) 接收输出。现在,在海马体中,有几个功能单元,但其中最重要的是 DG、CA3 和 CA1。 EC形成稀疏和分布式重叠图案,从各地的大脑皮层和皮层下结构联合机输入,

随着抑制和稀疏连接的增加,这种模式变得更稀疏,并且与齿状回 (DG) 和 CA3 的重叠更少。这为相似的输入提供了不同的表示,因此提供了分离模式的能力。 DG-CA3 连接是非关联的,负责编码印迹。 EC-CA3 连接包含一个模式关联网络,负责提供检索线索。 CA3 中的循环连接创建自动关联内存。 EC 与 CA1 有双边连接,CA3-CA1-EC 通路形成了一个分层模式关联网络。

在编码过程中,CA1 中激活的神经元与激活的 EC 神经元形成关联连接。在检索过程中,稀疏的 CA3 模式通过 CA1 变得更密集和更多重叠,导致编码期间存在的原始、完整模式被重放,在 EC输出中恢复激活,而 EC输出又通过交互反馈连接新皮质。

抽象地说,海马体包含一个自动联想记忆,可以有效地使用部分线索(模式完成)并区分非常相似的输入(模式分离)。

上面描述的类似框架可用于增强标准机器学习算法。该模型包括能够对过程进行缓慢统计学习的长期记忆(类似于大脑中的新皮层)。快速学习器创建非常不同的表示,因此它们不会干扰慢速统计学习。

此外,快速学习器生成的表示被高度压缩,这使得存储由多个高维感官流组成的经验变得可行。该系统可以重建用于识别的高维输入,即能够在暴露于类似事物时重建原始刺激和巩固,即重放长期记忆以学习重要信息并忘记其余部分。

为了一次性训练一个剧集,我们需要创建独特且互不干扰的模式,为此,我们必须夸大它们之间的差异。但这使得很难将模型概括为以相似的方式表示相似的事物。这些能力似乎相互矛盾。

人工海马算法架构

AHA 架构,这里棕色箭头代表目标连接

AHA 架构的灵感来自上述 Hippocamal 结构。它利用了快速学习质量,还利用了海马区的不同功能通路。途径是:



  • 模式分离 (PS/DG) ,它产生出现在 EC-DG-CA3 通路中的稀疏和正交表示。理想的函数是散列,即非常相似(不相等/不相同)的输入应该产生不同的输出。作者在这里使用了一个随机初始化的固定单层 FCNN,具有一些稀疏约束。
  • Pattern Completion (PC/CA3) ,从部分线索中识别完整的模式。它是用一个 Hopfield 网络实现的,一个受生物学启发的自动联想记忆网络
  • 模式映射 (PM/CA1) ,以接地形式重建原始完整模式。
  • 模式检索 (PR/ EC-CA3) 对 EC(即 VC)和 CA3(PC)之间的连接进行建模。它的作用是向 PC(CA3) 提供提示。它是用 2 层全连接人工神经网络 (FC-ANN) 实现的。
  • Vision Component (VC) :在AHA模型中起到类似于EC的作用,即处理高维感官输入输出抽象视觉特征。它是用单层卷积稀疏编码器实现的,带有兴趣过滤器以抑制背景编码

记忆存储(训练):在训练模型的这部分,PS通路将非符号矩阵转化为符号形式进行记忆存储。这些符号用于 PC 途径中的一种自我监督学习形式,以识别未来的学习。 PM 路径学习从这些符号映射到固定的非符号形式。

记忆回忆(推理): PC 通路将非符号输入映射到符号表示。它包含一个自动关联内存,用于对重要符号进行健壮的回忆。然后 PM 重建原始输出。

实验:

实验基于对手写字符数据集的一次性分类测试。实验主要有两个部分:

一次性分类(Lake 2015 数据集):

  • 第一步,“记住”一组呈现给模型的手写字符。
  • 其次,呈现了一个“识别”集合。它由与上述相同的字符组成,手写或由不同的人/字体生成。
  • 系统找到匹配的字符。例如,在“记忆”第2字符相匹配5在“识别”字符。尽管只能看到一个字符/图像的一个版本,但系统必须能够识别该图像。

一次性分类测试示例

实例一次性分类:

  • 这与上述步骤类似,只是集合中的每个字符都是相同的字母。
  • 任务仍然是匹配相应的字符,但现在模型必须能够学会区分相似的字符。

实例一次性分类

在图像中,第 1-6 行代表以下状态:

  • 记住的字符。
  • 字符的分隔符号表示。
  • 测试字符显示给系统。
  • 第一次回忆符号。
  • 来自自动关联内存的精美版本。
  • 重建的输入。

参考:

  • 人工海马算法论文