以下哪种权重初始化方法适用于ReLU激活函数?

答案解析

本题考察权重初始化方法与激活函数的匹配。He初始化考虑了ReLU激活函数的非线性特性,通过调整权重初始化的标准差来帮助缓解梯度消失问题。零初始化会导致网络无法学习,随机初始化和Xavier初始化分别适用于不同的激活函数。
正确答案:D
随机推荐
开始刷题