在深度学习中,为了解决梯度消失问题,以下哪种激活函数被广泛使用?

答案解析

本题考查深度学习中的激活函数。梯度消失问题在深层网络中常见,ReLU激活函数因其导数在正数区间为常数1,可以有效缓解梯度消失问题。Sigmoid和Tanh在深层网络中容易导致梯度消失。Softmax用于输出层的概率分布,不适用于解决梯度消失问题。因此,正确答案是C。
正确答案:C
随机推荐
开始刷题