在深度学习中,为了防止梯度消失问题,以下哪种激活函数常被使用? A. Sigmoid B. Tanh C. ReLU D. Softmax 答案解析 梯度消失问题常出现在深层神经网络中,特别是使用Sigmoid或Tanh激活函数时。ReLU激活函数因为其导数在正值时为1,可以有效避免梯度消失问题。Sigmoid和Tanh在深层网络中会导致梯度消失,而Softmax通常用于输出层的概率分布,不涉及梯度消失问题。 正确答案:C