在神经网络中,以下哪个激活函数的输出范围在(0,1)之间? A. Tanh B. Sigmoid C. ReLU D. Leaky ReLU 答案解析 本题考查激活函数的基本概念。Sigmoid函数的输出范围在(0,1)之间,适用于二分类任务。Tanh函数的输出范围在(-1,1)之间,ReLU和Leaky ReLU函数的输出范围在[0, +inf)。正确答案是B,因为Sigmoid函数符合题目描述的输出范围。 正确答案:B