在优化器原理中,以下哪种优化器不使用动量来加速梯度下降?

答案解析

本题考查优化器原理。SGD(随机梯度下降)是最基本的优化算法,它不使用动量来加速梯度下降。Adam、RMSprop和Adagrad都是SGD的变种,它们通过不同的方式引入动量来改善优化过程。 B选项的Adam优化器结合了动量和自适应学习率的优点; C选项的RMSprop通过引入平方梯度项来调整学习率; D选项的Adagrad通过累加过去的梯度来调整学习率。 易错点提醒:理解不同优化器的工作原理和适用场景。
正确答案:A
随机推荐
开始刷题