以下哪项不是深度学习中的常用激活函数?
答案解析
本题考查深度学习基础中的激活函数选择。Sigmoid、ReLU和Tanh都是常用的激活函数,分别适用于不同的场景。Softmax通常用于多分类问题的输出层,而不是作为隐藏层的激活函数。因此,D选项是正确答案。
A选项的Sigmoid函数常用于二分类问题;
B选项的ReLU函数因其计算简单和缓解梯度消失问题而被广泛使用;
C选项的Tanh函数输出范围在-1到1之间,比Sigmoid函数的输出范围更广。
易错点提醒:注意区分激活函数在不同网络层和不同问题中的应用。
正确答案:D