在模型训练过程中,以下哪种方法不是用于防止梯度消失或爆炸的技术?
答案解析
核心考点是防止梯度消失或爆炸的技术。使用ReLU激活函数、梯度裁剪和使用BatchNorm都是常用的防止梯度消失或爆炸的技术。而增加网络深度实际上可能会加剧梯度消失或爆炸的问题,因此它不是用于防止这些问题的技术。正确答案是D。错误选项A、B和C都是用于防止梯度消失或爆炸的技术,但它们不是本题的正确答案。
正确答案:D