以下哪种优化算法在每次迭代中使用一个样本来计算梯度? A. 动量法 B. RMSProp C. 随机梯度下降(SGD) D. Adam 答案解析 本题考察优化算法的基本概念。随机梯度下降(SGD)是每次使用一个样本计算梯度的算法,因此是正确答案。动量法、RMSProp和Adam都是在SGD的基础上进行改进的算法,分别引入了动量、学习率自适应调整和结合动量与RMSProp的优点,但它们并不符合题目中对单个样本计算的描述。 正确答案:C