在优化器原理中,以下哪种优化器不使用动量来加速梯度下降?
答案解析
本题考查优化器原理。SGD(随机梯度下降)是最基本的优化算法,它不使用动量来加速梯度下降。Adam、RMSprop和Adagrad都是SGD的变种,它们通过不同的方式引入动量来改善优化过程。
B选项的Adam优化器结合了动量和自适应学习率的优点;
C选项的RMSprop通过引入平方梯度项来调整学习率;
D选项的Adagrad通过累加过去的梯度来调整学习率。
易错点提醒:理解不同优化器的工作原理和适用场景。
正确答案:A