在深层神经网络中,梯度消失现象通常会导致什么问题? A. 模型训练速度加快 B. 前面层的权重更新缓慢 C. 模型参数不稳定 D. 训练过程发散 答案解析 梯度消失是指在反向传播过程中,梯度逐层减小,导致前面层的权重更新缓慢,从而使得模型难以学习到有效的特征。正确答案是B。选项A错误,因为梯度消失会减慢训练速度。选项C和D描述的是梯度爆炸的现象,而非梯度消失。 正确答案:B