收缩自编码器 (CAE)
多伦多大学的研究人员于 2011 年在论文Contractive auto-encoders: Explicit invariance during feature extract 中提出了 Contractive Autoencoder。其背后的想法是使自动编码器对训练数据集中的微小变化具有鲁棒性。
为了应对基本自动编码器中提出的上述挑战,作者建议在自动编码器的损失函数中添加另一个惩罚项。我们将详细讨论这个损失函数。
损失函数:
收缩自编码器在自编码器的损失函数中增加了一个额外的项,它被给出为:
即上述惩罚项是编码器的 Frobinious 范数,该 frobinious 范数只是欧几里得范数的推广。
在上面的惩罚项中,我们首先需要计算隐藏层的雅可比矩阵,计算隐藏层相对于输入的雅可比矩阵类似于梯度计算。我们先计算隐藏层的雅可比矩阵:
其中,\phi 是非线性的。现在,为了得到第 j 个隐藏单元,我们需要得到第 i 个特征向量和相应权重的点积。为此,我们需要应用链式法则。
上述方法与我们计算梯度下降的方法类似,但有一个主要区别,就是我们将 h(X) 作为向量值函数,每个函数作为单独的输出。直观地说,例如,我们有 64 个隐藏单元,然后我们有 64 个函数输出,因此我们将有64 个隐藏单元中的每一个的梯度向量。
设 diag(x) 为对角矩阵,由上述导数得到的矩阵如下:
现在,我们将 diag(x) 方程置于上述方程中并简化:
与稀疏自编码器的关系
在稀疏自编码器中,我们的目标是让表示的大多数分量接近 0,要做到这一点,它们必须位于 sigmoid函数的左饱和部分,在那里它们对应的 sigmoid 值接近 0,并且非常接近于 0。小一阶导数,这反过来导致雅可比矩阵中非常小的条目。这导致稀疏自动编码器中的高度收缩映射,即使这不是稀疏自动编码器的目标。
与去噪自编码器的关系
去噪自动编码器背后的想法只是为了增加编码器对训练数据的微小变化的鲁棒性,这与 Contractive Autoencoder 的动机非常相似。但是,有一些区别:
- CAE 鼓励表示 f(x) 的鲁棒性,而 DAE 鼓励重建的鲁棒性,这仅部分地增加了表示的鲁棒性。
- DAE 通过随机训练用于重建的模型来提高其稳健性,而 CAE 则提高了雅可比矩阵的一阶导数的稳健性。
执行
Python3
# code
import tensorflow as tf
class AutoEncoder(tf.keras.Model):
def __init__(self):
super(FullyConnectedAutoEncoder, self).__init__()
self.flatten_layer =tf.keras.layers.Flatten()
self.dense1 = tf.keras.layers.Dense(64, activation=tf.nn.relu)
self.dense2 = tf.keras.layers.Dense(32, activation=tf.nn.relu)
self.bottleneck = tf.keras.layers.Dense(16, activation=tf.nn.relu)
self.dense4 = tf.keras.layers.Dense(32, activation=tf.nn.relu)
self.dense5 = tf.keras.layers.Dense(64, activation=tf.nn.relu)
self.dense_final = tf.keras.layers.Dense(784)
def call(self, inp):
x_reshaped = self.flatten_layer(inp)
print(x_reshaped.shape)
x = self.dense1(x_reshaped)
x = self.dense2(x)
x = self.bottleneck(x)
x_hid= x
x = self.dense4(x)
x = self.dense5(x)
x = self.dense_final(x)
return x, x_reshaped,x_hid
# define loss function and gradient
lambd =100
def loss(x, x_bar, h, model):
reconstruction_loss = tf.reduce_mean(
tf.keras.losses.mse(x, x_bar)
)
reconstruction_loss *= 28 * 28
W= tf.Variable(model.bottleneck.weights[0])
dh = h * (1 - h) # N_batch x N_hidden
W = tf.transpose(W)
contractive = lambd * tf.reduce_sum(tf.linalg.matmul(dh**2 ,tf.square(W)), axis=1)
total_loss = reconstruction_loss + contractive
return total_loss
def grad(model, inputs):
with tf.GradientTape() as tape:
reconstruction, inputs_reshaped,hidden = model(inputs)
loss_value = loss(inputs_reshaped, reconstruction, hidden, model)
return loss_value, tape.gradient(loss_value, model.trainable_variables),
inputs_reshaped, reconstruction
# load dataset
(x_train, _), (x_test, _) = tf.keras.datasets.fashion_mnist.load_data()
x_train = x_train.astype('float32') / 255.
x_test = x_test.astype('float32') / 255.
# train the model
model = FullyConnectedAutoEncoder()
optimizer = tf.optimizers.Adam(learning_rate=0.001)
global_step = tf.Variable(0)
num_epochs = 200
batch_size = 128
for epoch in range(num_epochs):
print("Epoch: ", epoch)
for x in range(0, len(x_train), batch_size):
x_inp = x_train[x : x + batch_size]
loss_value, grads, inputs_reshaped, reconstruction = grad(model, x_inp)
optimizer.apply_gradients(zip(grads, model.trainable_variables),
global_step)
print("Step: {}, Loss: {}".format(global_step.numpy(),tf.reduce_sum(loss_value)))
# generate results
n = 10
import matplotlib.pyplot as plt
plt.figure(figsize=(20, 4))
for i in range(n):
# display original
ax = plt.subplot(2, n, i + 1)
plt.imshow(x_test[i])
plt.title("original")
plt.gray()
ax.get_xaxis().set_visible(False)
ax.get_yaxis().set_visible(False)
# display reconstruction
ax = plt.subplot(2, n, i + 1 + n)
reconstruction, inputs_reshaped,hidden = model(x_test[i].reshape((1,784)))
plt.imshow(reconstruction.numpy().reshape((28,28)))
plt.title("reconstructed")
plt.gray()
ax.get_xaxis().set_visible(False)
ax.get_yaxis().set_visible(False)
plt.show()
参考:
- 收缩自编码器