在训练循环神经网络时,以下哪种技术可以用来防止梯度爆炸? A. 使用Dropout B. 使用Batch Normalization C. 应用梯度裁剪 D. 减少网络层数 答案解析 梯度裁剪是专门用来防止梯度爆炸的技术,它通过限制梯度的最大值来防止梯度在反向传播过程中变得过大。Dropout和Batch Normalization可以改善训练效果,但不是直接针对梯度爆炸问题的。减少网络层数可能有助于防止梯度爆炸,但不是专门的技术手段。 正确答案:C