在深度学习中,以下哪个激活函数可以有效地解决梯度消失问题?
答案解析
核心考点是激活函数的选择及其对梯度消失问题的影响。ReLU(Rectified Linear Unit)激活函数因其在正区间的梯度恒为1,能有效缓解梯度消失问题,是正确答案。Sigmoid和Tanh在输入值较大或较小时,梯度会变得非常小,导致梯度消失问题。Softmax通常用于多分类问题的输出层,不是隐藏层的激活函数。
正确答案:C