Sep, 2024
Zorro:一种灵活且可微分的参数化激活函数族,扩展了ReLU和GELU
Zorro: A Flexible and Differentiable Parametric Family of Activation
Functions That Extends ReLU and GELU
TL;DR
本研究针对现有激活函数在非可微分点和梯度爆炸问题上的不足,提出了一种新的激活函数族Zorro。Zorro函数具有光滑性和适应性,可无需归一化和避免神经元死亡,且能有效逼近Swish、GELU和DGELU等函数,提升各种神经网络架构的训练效果。该函数在多种网络架构上进行了测试,显示出其显著的有效性。