在深层神经网络中,梯度消失问题通常与以下哪种激活函数的使用最为相关?
答案解析
梯度消失问题主要发生在深层神经网络中,当使用Sigmoid或Tanh激活函数时,由于这些函数的导数在输入值较大或较小时会趋近于0,导致在反向传播过程中梯度逐渐变小,前层权重几乎不更新。ReLU及其变种(如Leaky ReLU和ELU)由于其导数在正区间恒为1,因此能有效缓解梯度消失问题。因此,正确答案是B. Sigmoid。
正确答案:B