以下哪种权重初始化方法适用于ReLU激活函数? A. 零初始化 B. 随机初始化 C. Xavier初始化(Glorot Initialization) D. He初始化 答案解析 本题考察权重初始化方法与激活函数的匹配。He初始化考虑了ReLU激活函数的非线性特性,通过调整权重初始化的标准差来帮助缓解梯度消失问题。零初始化会导致网络无法学习,随机初始化和Xavier初始化分别适用于不同的激活函数。 正确答案:D