在深度学习中,为了防止梯度消失问题,以下哪种激活函数常被使用?

答案解析

梯度消失问题常出现在深层神经网络中,特别是使用Sigmoid或Tanh激活函数时。ReLU激活函数因为其导数在正值时为1,可以有效避免梯度消失问题。Sigmoid和Tanh在深层网络中会导致梯度消失,而Softmax通常用于输出层的概率分布,不涉及梯度消失问题。
正确答案:C
随机推荐
开始刷题