以下哪种激活函数在深度学习中用于增加网络的非线性?

答案解析

本题考查的是激活函数的基本概念。ReLU(C)是一种常用的激活函数,它帮助网络学习非线性关系。Sigmoid(A)和Tanh(B)也是激活函数,但它们在某些情况下会面临梯度消失的问题。线性函数(D)不增加非线性,因为它只是将输入线性映射到输出。
正确答案:C
随机推荐
开始刷题