问答题

以下关于ReLU函数说法正确的是 A ReLU 神经元在训练时比较容易 死亡 . 在训练时 如果参数在一次不恰当的更新后 第一个隐藏层中的某个 ReLU 神经元在所有的训练数据上都不能被激活 那么这个神经元自身参数的梯度永远都会是0 在以后的训练过程中永远不能被激活. B ReLU 函数的输出是非零中心化的 给后一层的神经网络引入偏置偏移 会影响梯度下降的效率 C Leak

答案: 答案:A 解析: 选项A正确。ReLU(Rectified Linear Unit)函数在训练时确实可能会导致所...
题目列表

你可能感兴趣的试题

问答题

建筑节能减排技术 建筑标准的建设模式工艺要求不包括

答案: 答案:建筑节能减排技术的建设模式工艺要求通常包括以下几个方面:1. 设计阶段:采用节能设计,比如合理的建筑朝向、布局、建...
问答题

低代码开发中 APP和流程编排的关键要素有哪些 A 模型 B 服务 C 页面 D 菜单

答案: 答案:A 解析: 低代码开发中,APP和流程编排的关键要素包括模型、服务、页面和菜单。其中,模型是核心,它定义了...
微信扫码免费搜题