📅  最后修改于: 2023-12-03 15:20:35.011000             🧑  作者: Mango
TensorFlow.js 是一个开源的机器学习平台。它是由 Google Brain 团队开发的,目的是为了让开发者能够更加方便地创建、训练和部署机器学习模型。
tf.layers.gruCell() 函数是 TensorFlow.js 中用于创建 Gated Recurrent Unit (GRU) 神经网络层的函数之一。GRU 神经网络是一种循环神经网络,它可以用于处理时序数据,如语音、文本、时间序列等。
tf.layers.gruCell(config)
该函数接受一个配置对象作为参数,用于设置 GRU 网络层的参数和配置。
以下是一些常用的配置选项。
| 配置选项 | 类型 | 默认值 | 描述 | | --- | --- | --- | --- | | units | Integer | N/A | GRU 神经元的数量。 | | activation | String | "tanh" | 激活函数。 | | recurrentActivation | String | "hardSigmoid" | 用于更新状态的循环激活函数。 | | useBias | Boolean | true | 是否在 GRU cell 上使用偏置。 | | kernelInitializer | Initializer | "glorotUniform" | 权重张量的初始化器。 | | recurrentInitializer | Initializer | "orthogonal" | 循环权重张量的初始化器。 | | biasInitializer | Initializer | "zeros" | 偏置向量的初始化器。 | | kernelRegularizer | Regularizer | null | 常量正则化器函数应用于权重矩阵。 | | recurrentRegularizer | Regularizer | null | 常量正则化器函数应用于循环权重矩阵。 | | biasRegularizer | Regularizer | null | 常量正则化器函数应用于偏置向量。 | | kernelConstraint | Constraint | null | 强制计算刚度以扣除权重矩阵。 | | recurrentConstraint | Constraint | null | 强制计算刚度以扣除循环权重矩阵。 | | biasConstraint | Constraint | null | 强制计算刚度以扣除偏置向量。 | | dropout | Number | 0.0 | 缺失率。 | | recurrentDropout | Number | 0.0 | 循环缺失率。 | | implementation | Integer | 1 | 实现模式,其中 1 表示使用 CUDA CuDNN 。 | | resetAfter | Boolean | false | False 表示初始化状态是从零开始的(GRU-Cell),True 表示初始化状态为最后一个时间步的输出(GRU)。 |
以下是一个简单的示例,用于创建一个包含一个 GRU cell 的 Keras 层。
const model = tf.sequential();
model.add(
tf.layers.gruCell({
units: 64,
inputShape: [10, 32],
activation: 'relu',
recurrentActivation: 'sigmoid',
})
);