📅  最后修改于: 2023-12-03 14:47:03.672000             🧑  作者: Mango
Relu 是神经网络中常用的一种激活函数,全称为 Rectified Linear Unit,即修正线性单元。在神经网络中,激活函数对输入信号进行非线性变换,从而增加网络的表达能力。Relu 是目前使用最广泛的激活函数之一,其形式为:
$$f(x) = \max(0,x)$$
Relu 相比于其他激活函数,有以下优势:
相比于 sigmoid 和 tanh 等激活函数,Relu 在输入较大时不会出现饱和现象,梯度也不会因为输入过大而消失。这也是为什么 Relu 能够加速神经网络的训练过程的原因之一。
Relu 的计算十分简单,只需要比较输入和 0 的大小即可。相比于 sigmoid 和 tanh,Relu 的计算速度要快很多。
当输入为负数时,Relu 的输出为 0,因此 Relu 可以将一部分神经元的输出直接置为 0,从而使得神经网络具有稀疏性。稀疏性的好处是可以减少模型复杂度,加快计算速度,并且可以防止过拟合。
在神经网络中,使用 Relu 作为激活函数,有非常多的优势,包括非饱和性、计算速度快、稀疏性等。因此,在实际应用中,我们通常会优先选用 Relu 作为激活函数。
参考文献:
[1] K. He, X. Zhang, S. Ren, and J. Sun, “Delving deep into rectifiers: Surpassing human-level performance on imagenet classification,” in Proc. IEEE International Conference on Computer Vision, 2015.