问答题
以下关于ReLU函数说法正确的是 A ReLU 神经元在训练时比较容易 死亡 . 在训练时 如果参数在一次不恰当的更新后 第一个隐藏层中的某个 ReLU 神经元在所有的训练数据上都不能被激活 那么这个神经元自身参数的梯度永远都会是0 在以后的训练过程中永远不能被激活. B ReLU 函数的输出是非零中心化的 给后一层的神经网络引入偏置偏移 会影响梯度下降的效率 C Leak
答案:
答案:A 解析: 选项A正确。ReLU(Rectified Linear Unit)函数在训练时确实可能会导致所...