在深度学习中,ReLU(修正线性单元)是一种常用的激活函数,它在输入小于0时输出为0,输入大于0时输出等于输入值。以下哪个描述最准确地概括了ReLU激活函数的作用?
答案解析
核心考点:ReLU激活函数及其作用。解题思路:激活函数在神经网络中引入非线性,使得网络能够学习复杂的模式。ReLU的特点是在输入小于0时输出0,大于0时输出等于输入,这种非线性特性是关键。选项分析:A:ReLU不会将输入缩放到0到1之间,Sigmoid函数才具有这种特性。B:ReLU的主要作用是引入非线性,这是正确的描述。C:ReLU本身并不会减少梯度消失,反而可能因负值部分梯度为0而导致“神经元死亡”问题。D:ReLU只将小于0的输入变为0,不改变正值输入。易错点:部分考生可能对激活函数的作用不清楚,或者混淆了不同激活函数的作用。正确答案的关键依据:ReLU引入了非线性特性,使神经网络可以学习更复杂的模式。因此,答案是B。
正确答案:B