在深层神经网络中,梯度消失现象通常会导致什么后果? A. 模型训练速度加快 B. 前面层的权重更新缓慢 C. 模型参数不稳定 D. 训练过程发散 答案解析 梯度消失是指在反向传播过程中,梯度逐层减小,导致前面层的权重更新缓慢,模型难以学习有效特征。正确答案是B。选项A错误,因为梯度消失会减慢训练速度;选项C和D与梯度爆炸相关,而非梯度消失。 正确答案:B