📜  Tensorflow.js tf.layers.gruCell()函数(1)

📅  最后修改于: 2023-12-03 15:20:35.011000             🧑  作者: Mango

TensorFlow.js - tf.layers.gruCell() 函数介绍

简介

TensorFlow.js 是一个开源的机器学习平台。它是由 Google Brain 团队开发的,目的是为了让开发者能够更加方便地创建、训练和部署机器学习模型。

tf.layers.gruCell() 函数是 TensorFlow.js 中用于创建 Gated Recurrent Unit (GRU) 神经网络层的函数之一。GRU 神经网络是一种循环神经网络,它可以用于处理时序数据,如语音、文本、时间序列等。

语法
tf.layers.gruCell(config)

该函数接受一个配置对象作为参数,用于设置 GRU 网络层的参数和配置。

配置选项

以下是一些常用的配置选项。

| 配置选项 | 类型 | 默认值 | 描述 | | --- | --- | --- | --- | | units | Integer | N/A | GRU 神经元的数量。 | | activation | String | "tanh" | 激活函数。 | | recurrentActivation | String | "hardSigmoid" | 用于更新状态的循环激活函数。 | | useBias | Boolean | true | 是否在 GRU cell 上使用偏置。 | | kernelInitializer | Initializer | "glorotUniform" | 权重张量的初始化器。 | | recurrentInitializer | Initializer | "orthogonal" | 循环权重张量的初始化器。 | | biasInitializer | Initializer | "zeros" | 偏置向量的初始化器。 | | kernelRegularizer | Regularizer | null | 常量正则化器函数应用于权重矩阵。 | | recurrentRegularizer | Regularizer | null | 常量正则化器函数应用于循环权重矩阵。 | | biasRegularizer | Regularizer | null | 常量正则化器函数应用于偏置向量。 | | kernelConstraint | Constraint | null | 强制计算刚度以扣除权重矩阵。 | | recurrentConstraint | Constraint | null | 强制计算刚度以扣除循环权重矩阵。 | | biasConstraint | Constraint | null | 强制计算刚度以扣除偏置向量。 | | dropout | Number | 0.0 | 缺失率。 | | recurrentDropout | Number | 0.0 | 循环缺失率。 | | implementation | Integer | 1 | 实现模式,其中 1 表示使用 CUDA CuDNN 。 | | resetAfter | Boolean | false | False 表示初始化状态是从零开始的(GRU-Cell),True 表示初始化状态为最后一个时间步的输出(GRU)。 |

示例

以下是一个简单的示例,用于创建一个包含一个 GRU cell 的 Keras 层。

const model = tf.sequential();
model.add(
  tf.layers.gruCell({
    units: 64,
    inputShape: [10, 32],
    activation: 'relu',
    recurrentActivation: 'sigmoid',
  })
);
参考链接