以下哪种激活函数在深度学习中用于增加网络的非线性? A. Sigmoid B. Tanh C. ReLU D. Linear 答案解析 本题考查的是激活函数的基本概念。ReLU(C)是一种常用的激活函数,它帮助网络学习非线性关系。Sigmoid(A)和Tanh(B)也是激活函数,但它们在某些情况下会面临梯度消失的问题。线性函数(D)不增加非线性,因为它只是将输入线性映射到输出。 正确答案:C