在深层神经网络中,梯度消失现象通常会导致什么问题?

答案解析

梯度消失是指在反向传播过程中,梯度逐层减小,导致前面层的权重更新缓慢,从而使得模型难以学习到有效的特征。正确答案是B。选项A错误,因为梯度消失会减慢训练速度。选项C和D描述的是梯度爆炸的现象,而非梯度消失。
正确答案:B
随机推荐
开始刷题